EP3895446B1 - Method for interpolating a sound field and corresponding computer program product and device - Google Patents
Method for interpolating a sound field and corresponding computer program product and device Download PDFInfo
- Publication number
- EP3895446B1 EP3895446B1 EP19816809.8A EP19816809A EP3895446B1 EP 3895446 B1 EP3895446 B1 EP 3895446B1 EP 19816809 A EP19816809 A EP 19816809A EP 3895446 B1 EP3895446 B1 EP 3895446B1
- Authority
- EP
- European Patent Office
- Prior art keywords
- microphones
- sound field
- interpolation
- field
- interpolated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 76
- 238000004590 computer program Methods 0.000 title claims description 5
- 239000013598 vector Substances 0.000 claims description 69
- 230000009466 transformation Effects 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000006835 compression Effects 0.000 claims description 8
- 238000007906 compression Methods 0.000 claims description 8
- 238000009877 rendering Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 4
- 230000006837 decompression Effects 0.000 claims description 3
- 238000000265 homogenisation Methods 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 238000013459 approach Methods 0.000 description 8
- 239000005711 Benzoic acid Substances 0.000 description 6
- CDBYLPFSWZWCQE-UHFFFAOYSA-L sodium carbonate Substances [Na+].[Na+].[O-]C([O-])=O CDBYLPFSWZWCQE-UHFFFAOYSA-L 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 239000004334 sorbic acid Substances 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000004247 glycine and its sodium salt Substances 0.000 description 4
- 239000004245 inosinic acid Substances 0.000 description 4
- NLXLAEXVIDQMFP-UHFFFAOYSA-N Ammonium chloride Substances [NH4+].[Cl-] NLXLAEXVIDQMFP-UHFFFAOYSA-N 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000001427 coherent effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 239000004246 zinc acetate Substances 0.000 description 3
- 101000582320 Homo sapiens Neurogenic differentiation factor 6 Proteins 0.000 description 2
- 102100030589 Neurogenic differentiation factor 6 Human genes 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000004220 glutamic acid Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 230000009257 reactivity Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/301—Automatic calibration of stereophonic sound system, e.g. with test microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/11—Application of ambisonics in stereophonic audio systems
Definitions
- the field of the invention is that of the interpolation of a sound (or acoustic) field having been emitted by one or more sources and having been picked up by a finite set of microphones.
- the invention has many applications, in particular, but not exclusively, in the field of virtual reality, for example to allow a listener to move around in a sound scene which is restored to him, or in the field of the analysis of sound scene, for example to determine the number of sound sources present in the analyzed scene, or in the field of the restitution of a multichannel scene, for example within a 3D MPEG-H decoder, etc.
- a classic approach consists in estimating the sound field at the given position using a linear interpolation between the fields as picked up and encoded by the different stage microphones.
- the interpolation coefficients are estimated by minimizing a cost function.
- an ambisonic microphone encodes and delivers the sound field it picks up in an ambisonic format.
- the Ambisonic format is characterized by components that consist of the projection of the sound field following different directivities. These components are grouped in order. Order zero encodes the instantaneous acoustic pressure picked up by the microphone, order one encodes the three pressure gradients along the three axes of space, etc. The higher you go in the orders, the greater the spatial resolution of the representation of the field.
- the ambisonic format in its complete representation, i.e.
- Such microphones thus make it possible to represent the sound field in three dimensions via a decomposition of the latter into spherical harmonics. That decomposition is particularly suitable for so-called 3DoF navigation (from the English “Degree of Freedom”), eg navigation along the three dimensions. This is also the format that has been chosen for immersive content on Youtube's virtual reality channel or on Facebook-360.
- the method must make it possible to estimate the sound field at the interpolation position so that the field in question is consistent with the position of the sound sources.
- a listener located at the interpolation position must have the impression that the interpolated field is indeed arriving in the direction of the sound source(s) of the sound scene which, when the field in question is rendered (e.g. to allow the listener to navigate the soundstage).
- the invention proposes a new and inventive solution for carrying out an interpolation of a sound field picked up by at least two microphones, for example in a scene comprising one or more sound source(s).
- the proposed method takes advantage of the encoding of the sound field in a form giving access to the vector of pressure gradients in addition to the pressure.
- the vector of pressure gradients of the interpolated field remains consistent with that of the sound field as emitted by the source(s) of the scene at the interpolation position.
- a listener located at the interpolation position and listening to the interpolated field has the impression that the field which is restored to him is coherent with the sound source(s) (i.e. that the field which is is reproduced actually arrives in the direction of the sound source(s) in question).
- the equation in question is solved in the sense of minimizing the root mean square error, eg by minimizing the cost function ⁇ ⁇ I has I you W ⁇ 2 ⁇ you x I you ⁇ W has 2 ⁇ you x has you ⁇ 2 .
- the resolution method eg the Simplex algorithm
- the resolution method is chosen according to whether it is overdetermined (more equations than microphones) or underdetermined (more microphones than equations).
- the resolution is also performed under the constraint that the N weighting factors a i ( t ) are all positive or zero.
- phase inversions are avoided, thereby leading to improved results.
- resolution of the aforementioned equation is accelerated.
- the homogenization factor ⁇ is proportional to the L-2 norm of the vector x a ( t ) .
- the estimate W has 2 ⁇ you of the sound field power at the interpolation position is estimated from the instantaneous sound power W I 2 you picked up by the one of the N microphones closest to the interpolation position or from the estimate W ⁇ 2 ⁇ you instant sound power W I 2 you picked up by the one of the N microphones closest to the interpolation position.
- the estimate W has 2 ⁇ you of the sound field power at the interpolation position is estimated from a barycenter of the N instantaneous sound powers W I 2 you picked up by the N microphones, respectively from a barycenter of the N estimates W ⁇ 2 ⁇ you N instantaneous sound powers W I 2 you picked up by the N microphones.
- a coefficient weighting the instantaneous sound power W I 2 you , respectively weighting the estimate W ⁇ 2 ⁇ you instant sound power W I 2 you picked up by the microphone of index i , in the barycenter is inversely proportional to a normalized version of the distance between the position of the microphone of index i delivering the pressure W i ( t ) and the interpolation position. The distance is expressed in the sense of an L- p norm.
- the sound field pressure at the interpolation position is accurately estimated based on the pressures delivered by the microphones.
- p is chosen equal to two
- the law of decreasing pressure of the sound field is respected, leading to good results whatever the configuration of the stage.
- the interpolation method further comprises, prior to the interpolation, a selection of the N microphones from among Nt microphones, Nt>N.
- the weighting factors can be obtained via a determined or overdetermined system of equations, thus making it possible to avoid or at least minimize the changes of timbres perceptible to the ear on the interpolated sound field.
- the N microphones selected are the closest to the interpolation position among the Nt microphones.
- the microphones are selected so as to be distributed around the interpolation position.
- the index i 3 of the third microphone is an index different from i 1 and i 2 which minimizes the scalar product ⁇ a 12 you , x I you ⁇ x has you ⁇ x I you ⁇ x has you ⁇ ⁇ among the Nt microphone indices.
- the interpolation method further comprises, for a given encoded sound field among the N encoded sound fields delivered by the N microphones, a transformation of the given encoded sound field by applying a bank of reconstruction filters perfect delivering M field frequency components associated with the given encoded sound field, each field frequency component among the M field frequency components being located in a distinct frequency sub-band.
- the repeated transformation for the N encoded sound fields delivers N corresponding sets of M field frequency components.
- the interpolation delivers a frequency component of field interpolated at the interpolation position and localized in the given frequency sub-band, the interpolated field frequency component is expressed as a linear combination of the N field frequency components, among the N sets, located in the given frequency sub-band.
- the repeated interpolation for the M frequency sub-bands delivers M interpolated field frequency components at the interpolation position, each interpolated field frequency component among the M interpolated field frequency components being located in a distinct frequency sub-band.
- the results are improved in the case where the sound field is generated by a plurality of sound sources.
- the interpolation method further comprises a transformation inverse to said transformation.
- the inverse transformation applied to the M interpolated field frequency components delivers the interpolated encoded sound field at the interpolation position.
- the invention also relates to a computer program, comprising program code instructions for the implementation of an interpolation or restitution method as described previously, according to any one of its various embodiments, when said program is executed by a processor.
- a device for interpolating a sound field picked up by a plurality of N microphones each delivering the sound field encoded in a form comprising at least one pressure picked up and a vector of associated pressure gradients comprises a reprogrammable calculation machine or a dedicated calculation machine, capable of and configured to implement the steps of the interpolation method described previously (according to any one of its various embodiments).
- the general principle of the invention is based on the encoding of the sound field by the microphones picking up the sound field in question in a form comprising at least one pressure picked up and an associated pressure gradient.
- the pressure gradient of the field interpolated via a linear combination of the sound fields encoded by the microphones remains consistent with that of the sound field as emitted by the source(s) of the scene at the interpolation position.
- the method according to the invention bases the estimation of the weighting factors involved in the linear combination in question on an estimation of the power of the sound field at the interpolation position. Thus, a low computational complexity is obtained.
- the listener 110 is provided with a helmet equipped with 110hp loudspeakers allowing the restitution of the interpolated sound field at the interpolation position which it occupies.
- a helmet equipped with 110hp loudspeakers allowing the restitution of the interpolated sound field at the interpolation position which it occupies.
- This is for example a Hi-Fi headset, or a virtual reality headset such as the Oculus, the HTC Vive or the Samsung Gear.
- the sound field is here interpolated and restored by implementing the restitution process described below in relation to the [ fig. 6 ].
- the sound field picked up by the 100m microphones is encoded in a form comprising a picked up pressure and an associated pressure gradient.
- the sound field picked up by the microphones is encoded in a form comprising the pressure picked up, the vector of the associated pressure gradients as well as all or part of the higher order components of the sound field in the format ambisonic.
- the perception of the direction of arrival of the sound field wavefront is directly correlated with an acoustic intensity vector I ( t ) which measures the instantaneous flux of acoustic energy through an elementary surface.
- the intensity vector in question is equal to the product of the instantaneous acoustic pressure W(t) by the particle velocity, which is opposed to the vector of the pressure gradients B (t).
- This vector of gradients pressure can be expressed in 2D or 3D depending on whether one wishes to move and/or perceive sounds in 2D or 3D. In the following, we place our in the 3D case, the derivation of the 2D case being immediate.
- B ( t ) [X( t ) Y ( t ) Z ( t )] T .
- this vector is orthogonal to the wave front and points in the direction of the propagation of the sound wave, i.e. opposite the position of the emitting source: in this sense, it is directly correlated with the perception of the wavefront. This is particularly evident if we consider a field generated by a single distant point source s(t) propagating in an anechoic medium.
- the method according to the invention implements the resolution of systems of equations (i.e. [Math 4] in different constraint alternatives (i.e. hyperplane and/or positivity of the weighting factors) and [Math 5]).
- systems of equations i.e. [Math 4] in different constraint alternatives (i.e. hyperplane and/or positivity of the weighting factors) and [Math 5]).
- the resolution of the systems in question in the case where they are under-determined (case which corresponds to the configuration where there are more 100m microphones than equations to be solved) leads to solutions which , over time, may favor different sets of microphones. If the localization of the sources 100s as perceived via the interpolated sound field always remains coherent, it results however from it changes of timbres perceptible to the ear.
- N 100m microphones are selected by reducing our to a determined, or even over-determined, mixture. For example, in the case of a 3D interpolation, it is possible to select up to three microphones among the Nt microphones 100m.
- the N microphones 110m closest to the position to be interpolated are selected. This solution is to be preferred when a large number Nt of 110m microphones is present in the scene. However, in some cases, the choice of the N closest 110m microphones may turn out to be "unbalanced" with regard to the interpolation position with respect to the 100s source and lead to a complete inversion of the direction of arrival: c This is notably the case when the 100s source is placed between the 100m microphones and the interpolation position.
- the index i 3 of said third microphone is for example an index different from i 1 and i 2 which minimizes the scalar product ⁇ a 12 you , x I you ⁇ x has you ⁇ x I you ⁇ x has you ⁇ ⁇ among the Nt indices of microphones 100m.
- the scalar product in question varies between -1 and +1, and it is minimal when the vectors u 12 (t) and x I you ⁇ x has you ⁇ x I you ⁇ x has you ⁇ are opposite, that is to say when the 3 microphones selected from the Nt microphones 110m surround the interpolation position.
- the selection step E200 is not implemented and the steps E210 and E210a described below are implemented on the basis of the sound fields encoded by all of the Nt microphones 100m.
- N Nt for the implementation of steps E210 and E210a in the other embodiments in question.
- the method comprises a step E210 of interpolating the sound field at an interpolation position, delivering an interpolated encoded sound field expressed as a linear combination of the N sound fields encoded by the N selected microphones 100m, the N sound fields encoded, each being weighted by a corresponding weighting factor.
- the interpolation method according to the invention applies in the same way in order to estimate the weighting factors a i ( t ).
- the distance d ( x i ( t ), x s ( t )) is a priori unknown, but it can be observed that, in the hypothesis of a single plane wave, the instantaneous acoustic pressure W i ( t ) at the level of the microphone 100m of index i is also inversely proportional to this distance. Thereby : W I you % 1 d x I you , x s you
- the different positions mentioned above vary over time.
- the factors of weighting a i ( t ) are generally a function of time.
- Estimating the weighting factors a i ( t ) amounts to solving a system of three linear equations (written above as a single vector equation in [Math 3]).
- T a a temporal resolution adapted to the rate of change of the interpolation position.
- the forgetting factor ⁇ w is determined in such a way as to integrate the power over a few tens of milliseconds.
- values of 0.95 to 0.98 for signal sampling frequencies ranging from 8kHz to 48kHz achieve a good compromise between the robustness of the interpolation and its reactivity to source position changes.
- the instantaneous acoustic power W has 2 you at the interpolation position is estimated as a barycenter of the N estimates W ⁇ 2 ⁇ you of the N instantaneous powers W I 2 you of the N pressures captured by the N microphones 100m selected.
- Such an approach is more relevant when the microphones are 100m apart from each other. For example, one determines the barycentric coefficients according to the distance ⁇ x i ( t ) - x a ( t ) ⁇ p , where p is a positive real and ⁇ . ⁇ p is the Lp norm, between the interpolation position and the microphone 110m of index i among the N microphones 100m.
- a coefficient weighting the estimate W ⁇ 2 ⁇ you instant power W I 2 you of the pressure picked up by the microphone 110m of index i in the barycentric expression above is inversely proportional to a normalized version of the distance, within the meaning of the Lp standard, between the position of the microphone of index i delivering the pressure W i ( t ) and the interpolation position.
- the instantaneous sound power W has 2 you at the interpolation position is estimated directly as a barycenter of the N instantaneous powers W I 2 you of the N pressures picked up by the N microphones 100m. In practice, this amounts to substituting W I 2 you at W ⁇ 2 ⁇ you in the equation above.
- p ⁇
- the estimation of the weighting factors a i ( t ) on the basis of a resolution of [Math 3] requires addressing the problem of not knowing the representative vector of the position x s ( t ) of the source 100s active.
- [Math 4] is solved in the sense of minimizing the root mean square error, eg by minimizing the cost function ⁇ ⁇ I has I you W ⁇ 2 ⁇ you x I you ⁇ W has 2 ⁇ you x has you ⁇ 2 .
- the resolution method eg the Simplex algorithm
- the resolution method is chosen according to whether it is overdetermined (more equations than microphones) or underdetermined (more microphones than equations).
- W ⁇ 2 ⁇ you and W has 2 ⁇ you are for example estimated according to one of the variants proposed above.
- the resolution of such a linear system under linear constraint can be carried out by the Simplex algorithm or any other minimization algorithm under constraint.
- the coefficient ⁇ makes it possible to homogenize the units of the quantities W has 2 ⁇ you x has you and W has 2 ⁇ you .
- it may be interesting to constrain the interpolation coefficients more strongly to respect the constraint of the hyperplane ⁇ I has I you W ⁇ 2 ⁇ you W has 2 ⁇ you . This can be obtained by weighting the coefficient ⁇ by an amplification factor ⁇ > 1. The results show that an amplification factor ⁇ of 2 to 10 makes the prediction of pressure gradients more robust.
- the four microphones 300m are placed at the four corners of a room and the source 300s is placed in the center of the room.
- the room has medium reverberation, with a reverberation time or T 60 of around 500ms.
- the sound field picked up by the 300m microphones is encoded in a form comprising a picked up pressure and the associated pressure gradient vector.
- the four 400m microphones remain here positioned at the four corners of a room while the 400s source is now off-center in relation to the center of the room.
- the method comprises the step E200 of selecting N microphones from among the Nt microphones of the scene 100 described above in relation to the [ fig. 2 ].
- the embodiment in question is suitable for the case where several sources among the sources 100s are active simultaneously.
- the assumption of a full-band field resembling a plane wave is no longer valid.
- the mixture of two plane waves is not a plane wave - except in the very specific case of the same source emitting from 2 points in space equidistant from the capture point.
- the "full band" field reconstruction procedure adapts to the preponderant source in the frame used for the calculation of the effective powers. This produces rapid variations in directivity, and sometimes source location inconsistencies: when one source is more energetic than another, the two sources in question are estimated to be located at the position of the most energetic source.
- the embodiment of the [ fig. 5 ] exploits signal sparseness in the frequency domain.
- the frequency supports of several speech signals are globally disjoint: that is to say that most of the time, a single source is present in each band of frequency.
- the embodiment of the [ fig. 2 ] (according to any of the aforementioned variants) can thus be applied to the signal present in each frequency band.
- a transformation of the given encoded sound field is performed by applying a time-frequency transformation such as the transform filter or a bank of filters with perfect or almost perfect reconstruction, such as quadrature mirror filters or QMF.
- a time-frequency transformation such as the transform filter or a bank of filters with perfect or almost perfect reconstruction, such as quadrature mirror filters or QMF.
- Such a transformation delivers M field frequency components associated with the given encoded sound field, each field frequency component among the M field frequency components being located in a distinct frequency sub-band.
- each component of the vector ⁇ i representing the sound field encoded by the microphone 100m of index i ie is applied to the pressure picked up, to the components of the pressure gradient vector, as well as to the components of higher order present in the encoded sound field if any
- the number of frequency components M is equal to the size of the analysis frame T.
- T the zero-padding technique can also be applied in order to apply the fast Fourier transformation.
- the vector made up of the set of components ⁇ i , l ( n , ⁇ ), (or ⁇ i,l ( n , k )) for the different /, represents the frequency component of the field ⁇ i in the frequency sub-band ⁇ (or k) considered.
- step E500 is repeated for the N sound fields encoded by the N selected microphones 100m, delivering N corresponding sets of M field frequency components.
- the steps E210 and E210a described above in relation to the [ fig. 2 ] are implemented for each frequency sub-band among the M frequency sub-bands. More particularly, for a given frequency sub-band among the M frequency sub-bands, the interpolation delivers a field frequency component interpolated at the interpolation position and localized in the given frequency sub-band.
- the interpolated field frequency component is expressed as a linear combination of the N field frequency components, among the N sets, located in the given frequency sub-band.
- the resolution of the systems of equations making it possible to determine the weighting factors is performed in each of the frequency sub-bands to produce a set of weighting factors per frequency sub-band a i ( n, ⁇ ) (or a i ( n , k )).
- the repeated interpolation for the M frequency sub-bands delivers M interpolated field frequency components at the interpolation position, each interpolated field frequency component among the M interpolated field frequency components being located in a distinct frequency sub-band .
- a transformation inverse to the transformation applied during step E500 is applied to the M interpolated field frequency components delivering the interpolated encoded sound field at the interpolation position.
- the inverse transformation applied during step E510 is an inverse Fourier transform.
- the sound field is picked up by the microphones 110m, each microphone among the microphones 110m delivering a corresponding picked up sound field.
- each of the sound fields picked up is encoded in a form comprising the pressure picked up and an associated vector of pressure gradients.
- the sound field picked up by the microphones 110m is encoded in a form comprising the pressure picked up, a vector of associated pressure gradients as well as all or part of the higher order components of the decomposed sound field in Ambisonics format.
- the restitution method comprises an interpolation phase E620 corresponding to the implementation of the interpolation method according to the invention (according to any one of the embodiments and/or variants described above in relation to the [ fig. 2] and [fig. 5 ]) delivering the interpolated encoded sound field at the interpolation position, eg the position of the listener 110.
- the interpolated encoded sound field is compressed, eg by implementing entropic coding.
- a compressed interpolated encoded sound field is thus delivered.
- the compression step E630 is implemented by the device 700 (described below in relation to the figure 7 ) which is remote from the 110hp restitution device.
- the compressed interpolated encoded sound field delivered by the device 700 is transmitted to the restitution device 110hp.
- the compressed interpolated encoded sound field is transmitted to another device having a computing capacity making it possible to decompress compressed content, eg a smartphone, a computer, or any other connected terminal with sufficient computing capacity, for subsequent transmission.
- the compressed interpolated encoded sound field received by the restitution device 110hp is decompressed in order to deliver the samples of the interpolated encoded sound field in the coding format used (ie in the format comprising at least the pressure picked up by the corresponding microphone 110m, the components of the pressure gradient vector, as well as the higher order components present in the encoded sound field if applicable).
- the coding format used ie in the format comprising at least the pressure picked up by the corresponding microphone 110m, the components of the pressure gradient vector, as well as the higher order components present in the encoded sound field if applicable.
- step E660 the interpolated encoded sound field is reproduced on the restitution device 110hp.
- the interpolation position corresponds to the physical position of the listener 110
- the latter has the impression that the sound field which is restored to him is coherent with the sound sources 100s (i.e. that the field which is restored to him actually in the direction of sound sources 100s).
- the compression and decompression steps E630 E650 are not implemented. In these embodiments, it is the raw samples of the interpolated encoded sound field which are transmitted to the rendering device 110hp.
- the device 700 implementing at least the interpolation phase E620 is embedded in the restitution device 110hp.
- it is the samples of the encoded sound field (once compressed or not depending on the variants) which are transmitted to the restitution device 110hp during step E640, and not the samples of the interpolated encoded sound field (once compressed or not depending on the variants).
- step E640 is implemented just after steps E600 and E610 of capture and encoding.
- the device 700 comprises a random access memory 703 (for example a RAM memory), a processing unit 702 equipped for example with a processor, and controlled by a computer program stored in a read only memory 701 (for example a ROM memory or a hard disc). On initialization, the code instructions of the computer program are for example loaded into the RAM 703 before being executed by the processor of the processing unit 702.
- a random access memory 703 for example a RAM memory
- a processing unit 702 equipped for example with a processor
- a computer program stored in a read only memory 701 for example a ROM memory or a hard disc
- That [ fig. 7 ] illustrates only one particular way, among several possible, of making the device 700 so that it performs certain steps of the interpolation method according to the invention (according to any one of the embodiments and/or variants described above in relation to the [ fig. 2] and [fig. 5 ]). Indeed, these steps can be carried out either on a reprogrammable calculation machine (a PC computer, a DSP processor or a microcontroller) executing a program comprising a sequence of instructions, or on a dedicated calculation machine (for example a set of logic gates like an FPGA or an ASIC, or any other hardware module).
- a reprogrammable calculation machine a PC computer, a DSP processor or a microcontroller
- a dedicated calculation machine for example a set of logic gates like an FPGA or an ASIC, or any other hardware module.
- the corresponding program (that is to say the sequence of instructions) could be stored in a removable storage medium (such as for example a diskette, a CD-ROM or a DVD-ROM) or not, this storage medium being partially or totally readable by a computer or a processor.
- a removable storage medium such as for example a diskette, a CD-ROM or a DVD-ROM
- the device 700 is also configured to implement all or part of the additional steps of the method for restoring the [ fig. 6 ] (eg steps E600, E610, E630, E640, E650 or E660).
- device 700 is included in renderer 110hp.
- the device 700 is included in one of the microphones 110m or is duplicated in several of the microphones 110m.
- the device 700 is included in equipment remote from both the microphones 110m as well as the playback device 110hp.
- the remote equipment is an MPEG-H 3D decoder, a content server, a computer, etc.
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Circuit For Audible Band Transducer (AREA)
- Stereophonic System (AREA)
Description
Le domaine de l'invention est celui de l'interpolation d'un champ sonore (ou acoustique) ayant été émis par une ou plusieurs sources et ayant été capté par un ensemble fini de microphones.The field of the invention is that of the interpolation of a sound (or acoustic) field having been emitted by one or more sources and having been picked up by a finite set of microphones.
L'invention a de nombreuses applications, notamment, mais non exclusivement, dans le domaine de la réalité virtuelle, par exemple pour permettre à un auditeur de se déplacer dans une scène sonore qui lui est restituée, ou dans le domaine de l'analyse de scène sonore, par exemple pour déterminer le nombre de sources sonores présentes dans la scène analysée, ou dans le domaine de la restitution d'une scène multicanal, par exemple au sein d'un décodeur MPEG-H 3D, etc.The invention has many applications, in particular, but not exclusively, in the field of virtual reality, for example to allow a listener to move around in a sound scene which is restored to him, or in the field of the analysis of sound scene, for example to determine the number of sound sources present in the analyzed scene, or in the field of the restitution of a multichannel scene, for example within a 3D MPEG-H decoder, etc.
Afin d'interpoler un champ sonore en une position donnée d'une scène sonore, une approche classique consiste à estimer le champ sonore à la position donnée à l'aide d'une interpolation linéaire entre les champs tels que captés et encodés par les différents microphones de la scène. Les coefficients d'interpolation sont estimés en minimisant une fonction de coût. Une telle approche est montrée dans le document
Dans une telle approche, les techniques connues privilégient une captation du champ sonore par des microphones dits ambisoniques. Plus particulièrement, un microphone ambisonique encode et délivre le champ sonore qu'il capte dans un format ambisonique. Le format ambisonique se caractérise par des composantes qui consistent en la projection du champ sonore suivant différentes directivités. Ces composantes sont regroupées par ordre. L'ordre zéro encode la pression acoustique instantanée captée par le microphone, l'ordre un encode les trois gradients de pression suivant les trois axes de l'espace, etc. Plus on monte dans les ordres, plus la résolution spatiale de la représentation du champ est importante. Le format ambisonique dans sa représentation complète, i.e. à l'ordre infini, permet d'encoder le champ en tout point à l'intérieur de la sphère maximale exempte de sources sonores, et ayant comme centre l'emplacement physique du microphone ayant effectué la captation. Un tel encodage du champ sonore permet en théorie, à partir d'un seul microphone, de se déplacer à l'intérieur de la zone délimitée par la source la plus proche du microphone, sans pouvoir cependant contourner aucune des sources en question.In such an approach, the known techniques favor capturing the sound field by so-called ambisonic microphones. Specifically, an ambisonic microphone encodes and delivers the sound field it picks up in an ambisonic format. The Ambisonic format is characterized by components that consist of the projection of the sound field following different directivities. These components are grouped in order. Order zero encodes the instantaneous acoustic pressure picked up by the microphone, order one encodes the three pressure gradients along the three axes of space, etc. The higher you go in the orders, the greater the spatial resolution of the representation of the field. The ambisonic format in its complete representation, i.e. at infinite order, makes it possible to encode the field at any point inside the maximum sphere free of sound sources, and having as its center the physical location of the microphone having carried out the capture. Such encoding of the sound field theoretically makes it possible, from a single microphone, to move within the zone delimited by the source closest to the microphone, without however being able to circumvent any of the sources in question.
De tels microphones permettent ainsi de représenter le champ sonore en trois dimensions via une décomposition de ce dernier en harmoniques sphériques. Cette décomposition est particulièrement adaptée à la navigation dite 3DoF (de l'anglais « Degree of Freedom »), e.g. une navigation suivant les trois dimensions. C'est d'ailleurs ce format qui a été retenu pour les contenus immersifs sur la chaîne de réalité virtuelle de Youtube ou encore sur Facebook-360.Such microphones thus make it possible to represent the sound field in three dimensions via a decomposition of the latter into spherical harmonics. That decomposition is particularly suitable for so-called 3DoF navigation (from the English “Degree of Freedom”), eg navigation along the three dimensions. This is also the format that has been chosen for immersive content on Youtube's virtual reality channel or on Facebook-360.
Cependant, les méthodes d'interpolation de l'état de l'art supposent généralement qu'il existe un couple de microphones à égale distance de la position de l'auditeur comme dans la méthode divulguée dans l'article de conférence de
Il existe ainsi un besoin pour une méthode améliorée d'interpolation de champ sonore. En particulier, la méthode doit permettre d'estimer le champ sonore à la position d'interpolation de manière à ce que le champ en question soit cohérent avec la position des sources sonores. Par exemple, un auditeur se situant à la position d'interpolation doit avoir l'impression que le champ interpolé arrive effectivement en direction de la ou des source(s) sonore(s) de la scène sonore qui lorsque le champ en question lui est restitué (e.g. pour permettre à l'auditeur de naviguer dans la scène sonore).There is thus a need for an improved method of sound field interpolation. In particular, the method must make it possible to estimate the sound field at the interpolation position so that the field in question is consistent with the position of the sound sources. For example, a listener located at the interpolation position must have the impression that the interpolated field is indeed arriving in the direction of the sound source(s) of the sound scene which, when the field in question is rendered (e.g. to allow the listener to navigate the soundstage).
Il existe également un besoin pour que la complexité calculatoire de la méthode d'interpolation soit maitrisée, par exemple pour permettre une implémentation en temps-réel sur des dispositifs à capacité de calcul limitée (e.g. sur un terminal portable, un casque de réalité virtuelle, etc.).There is also a need for the computational complexity of the interpolation method to be controlled, for example to allow real-time implementation on devices with limited computing capacity (e.g. on a portable terminal, a virtual reality headset, etc.).
Dans un mode de réalisation de l'invention, il est proposé un procédé d'interpolation d'un champ sonore capté par une pluralité de N microphones délivrant chacun le champ sonore encodé sous une forme comprenant au moins une pression captée et un vecteur de gradients de pression associé. Un tel procédé comprend une interpolation du champ sonore en une position d'interpolation délivrant un champ sonore encodé interpolé s'exprimant comme une combinaison linéaire des N champs sonores encodés pondérés chacun par un facteur de pondération correspondant. Le procédé comprend en outre une estimation des N facteurs de pondération à partir au moins :
- de la position d'interpolation ;
- d'une position de chacun desdits N microphones ;
- desdites N pressions captées par lesdits N microphones ; et
- d'une puissance estimée dudit champ sonore à ladite position d'interpolation.
- the interpolation position;
- a position of each of said N microphones;
- said N pressures picked up by said N microphones; and
- an estimated power of said sound field at said interpolation position.
Ainsi, l'invention propose une solution nouvelle et inventive pour réaliser une interpolation d'un champ sonore capté par au moins deux microphones, par exemple dans une scène comprenant une ou plusieurs source(s) sonore(s).Thus, the invention proposes a new and inventive solution for carrying out an interpolation of a sound field picked up by at least two microphones, for example in a scene comprising one or more sound source(s).
Plus particulièrement, la méthode proposée tire parti de l'encodage du champ sonore sous une forme donnant accès au vecteur de gradients de pression en plus de la pression. De la sorte, le vecteur de gradients de pression du champ interpolé reste cohérent avec celui du champ sonore tel qu'émis par la ou les source(s) de la scène à la position d'interpolation. Par exemple, un auditeur se situant à la position d'interpolation et écoutant le champ interpolé a l'impression que le champ qui lui est restitué est cohérent avec le ou les source(s) sonore(s) (i.e. que le champ qui lui est restitué arrive effectivement en direction de la ou des source(s) sonore(s) en question).More particularly, the proposed method takes advantage of the encoding of the sound field in a form giving access to the vector of pressure gradients in addition to the pressure. In this way, the vector of pressure gradients of the interpolated field remains consistent with that of the sound field as emitted by the source(s) of the scene at the interpolation position. For example, a listener located at the interpolation position and listening to the interpolated field has the impression that the field which is restored to him is coherent with the sound source(s) (i.e. that the field which is is reproduced actually arrives in the direction of the sound source(s) in question).
Par ailleurs, l'utilisation d'une puissance estimée du champ sonore à la position d'interpolation pour estimer les facteurs de pondération permet de conserver une complexité calculatoire faible. Ceci permet par exemple une implémentation en temps-réel sur des dispositifs à capacité de calcul limitée.Furthermore, the use of an estimated power of the sound field at the interpolation position to estimate the weighting factors makes it possible to keep computational complexity low. This allows for example a real-time implementation on devices with limited computing capacity.
Selon un mode de réalisation, l'estimation met en oeuvre une résolution de l'équation
- xi (t) un vecteur représentatif de la position du microphone d'indice i parmi les N microphones ;
- xa (t) un vecteur représentatif de la position d'interpolation ;
-
-
- x i ( t ) a vector representative of the position of the microphone of index i among the N microphones;
- x a ( t ) a vector representative of the interpolation position;
-
-
power
Par exemple, l'équation en question est résolue au sens de la minimisation de l'erreur quadratique moyenne, e.g. par minimisation de la fonction de coût
Selon un mode de réalisation, la résolution est effectuée sous la contrainte que
Selon un mode de réalisation, la résolution est en outre effectuée sous la contrainte que les N facteurs de pondération ai (t) sont tous positifs ou nuls.According to one embodiment, the resolution is also performed under the constraint that the N weighting factors a i ( t ) are all positive or zero.
Ainsi les inversions de phases sont évitées, conduisant par là-même à des résultats améliorés. Par ailleurs, la résolution de l'équation précitée se trouve accélérée.Thus phase inversions are avoided, thereby leading to improved results. Moreover, the resolution of the aforementioned equation is accelerated.
Selon un mode de réalisation, l'estimation met également en oeuvre une résolution de l'équation
Selon un mode de réalisation, le facteur d'homogénéisation α est proportionnel à la norme L-2 du vecteur xa (t). According to one embodiment, the homogenization factor α is proportional to the L-2 norm of the vector x a ( t ) .
Selon un mode de réalisation, l'estimation comprend :
- un moyennage temporel de ladite puissance instantanée
estimation - un filtrage autorégressif d'échantillons temporels de ladite puissance instantanée
estimation
- a temporal average of said instantaneous
power estimate - autoregressive filtering of time samples of said instantaneous power
estimate
Ainsi, en utilisant la puissance efficace, les variations de la puissance instantanée
Selon un mode de réalisation, l'estimation
Selon un mode de réalisation, l'estimation
Ainsi, la pression du champ sonore à la position d'interpolation est estimée de manière précise sur la base des pressions délivrés par les microphones. Notamment, lorsque p est choisi égal à deux, la loi de décroissance de la pression du champ sonore est respectée, conduisant à de bons résultats quelle que soit la configuration de la scène.Thus, the sound field pressure at the interpolation position is accurately estimated based on the pressures delivered by the microphones. In particular, when p is chosen equal to two, the law of decreasing pressure of the sound field is respected, leading to good results whatever the configuration of the stage.
Selon un mode de réalisation, le procédé d'interpolation comprend en outre, préalablement à l'interpolation, une sélection des N microphones parmi Nt microphones, Nt>N.According to one embodiment, the interpolation method further comprises, prior to the interpolation, a selection of the N microphones from among Nt microphones, Nt>N.
Ainsi, les facteurs de pondération peuvent être obtenus via un système d'équations déterminé ou surdéterminé, permettant ainsi d'éviter ou du moins minimiser les changements de timbres perceptibles à l'oreille sur le champ sonore interpolé.Thus, the weighting factors can be obtained via a determined or overdetermined system of equations, thus making it possible to avoid or at least minimize the changes of timbres perceptible to the ear on the interpolated sound field.
Selon un mode de réalisation, les N microphones sélectionnés sont les plus proches de la position d'interpolation parmi les Nt microphones.According to one embodiment, the N microphones selected are the closest to the interpolation position among the Nt microphones.
Selon un mode de réalisation, la sélection comprend :
- une sélection de deux microphones d'indices i1 et i2 les plus proches de ladite position d'interpolation parmi lesdits Nt microphones ;
- un calcul d'un vecteur médian u12(t) ayant pour origine ladite position d'interpolation et pointant entre les positions des deux microphones d'indices i1 et i2 ; et
- une détermination d'un troisième microphone d'indices i3 différent desdits deux microphones d'indices i1 et i2 parmi les Nt microphones et dont la position est la plus à l'opposé du vecteur médian u12(t).
- a selection of two microphones of indices i 1 and i 2 closest to said interpolation position from among said Nt microphones;
- a calculation of a median vector u 12 (t) originating from said interpolation position and pointing between the positions of the two microphones of indices i 1 and i 2 ; and
- a determination of a third microphone of indices i 3 different from said two microphones of indices i 1 and i 2 among the Nt microphones and whose position is furthest away from the median vector u 12 (t).
Ainsi, les microphones sont sélectionnés de manière à être répartis autour de la position d'interpolation.Thus, the microphones are selected so as to be distributed around the interpolation position.
Selon un mode de réalisation, le vecteur médian u12(t) s'exprime comme
Selon un mode de réalisation, le procédé d'interpolation comprend en outre, pour un champ sonore encodé donné parmi les N champs sonores encodés délivrés par les N microphones, une transformation du champ sonore encodé donné par application d'un banc de filtres à reconstruction parfaite délivrant M composantes fréquentielles de champ associées au champ sonore encodé donné, chaque composante fréquentielle de champ parmi les M composantes fréquentielles de champ étant localisée dans une sous-bande fréquentielle distincte. La transformation répétée pour les N champs sonores encodés délivre N jeux correspondants de M composantes fréquentielles de champ. Pour une sous-bande fréquentielle donnée parmi les M sous-bandes fréquentielles, l'interpolation délivre une composante fréquentielle de champ interpolée en la position d'interpolation et localisée dans la sous-bande fréquentielle donnée, la composante fréquentielle de champ interpolée s'exprime comme une combinaison linéaire des N composantes fréquentielles de champ, parmi les N jeux, localisées dans la sous-bande fréquentielle donnée. L'interpolation répétée pour les M sous-bandes fréquentielles délivre M composantes fréquentielles de champ interpolées en la position d'interpolation, chaque composante fréquentielle de champ interpolée parmi les M composantes fréquentielles de champ interpolées étant localisée dans une sous-bande fréquentielle distincte.According to one embodiment, the interpolation method further comprises, for a given encoded sound field among the N encoded sound fields delivered by the N microphones, a transformation of the given encoded sound field by applying a bank of reconstruction filters perfect delivering M field frequency components associated with the given encoded sound field, each field frequency component among the M field frequency components being located in a distinct frequency sub-band. The repeated transformation for the N encoded sound fields delivers N corresponding sets of M field frequency components. For a given frequency sub-band among the M frequency sub-bands, the interpolation delivers a frequency component of field interpolated at the interpolation position and localized in the given frequency sub-band, the interpolated field frequency component is expressed as a linear combination of the N field frequency components, among the N sets, located in the given frequency sub-band. The repeated interpolation for the M frequency sub-bands delivers M interpolated field frequency components at the interpolation position, each interpolated field frequency component among the M interpolated field frequency components being located in a distinct frequency sub-band.
Ainsi, les résultats sont améliorés dans le cas où le champ sonore est généré par une pluralité de sources sonores.Thus, the results are improved in the case where the sound field is generated by a plurality of sound sources.
Selon un mode de réalisation, le procédé d'interpolation comprend en outre une transformation inverse à ladite transformation. La transformation inverse appliquée aux M composantes fréquentielles de champ interpolées délivre le champ sonore encodé interpolé en la position d'interpolation.According to one embodiment, the interpolation method further comprises a transformation inverse to said transformation. The inverse transformation applied to the M interpolated field frequency components delivers the interpolated encoded sound field at the interpolation position.
Selon un mode de réalisation, le banc de filtres à reconstruction parfaite appartient au groupe comprenant :
- DFT (de l'anglais « Discrète Fourier Transform ») ;
- QMF (de l'anglais « Quadrature Mirror Filter ») ;
- PQMF (de l'anglais « Pseudo - Quadrature Mirror Filter ») ; et
- MDCT (de l'anglais « Modified Discrète Cosine Transform »).
- DFT (from the English “Discrete Fourier Transform”);
- QMF (from the English “Quadrature Mirror Filter”);
- PQMF (from the English “Pseudo-Quadrature Mirror Filter”); and
- MDCT (from the English “Modified Discrete Cosine Transform”).
L'invention concerne également un procédé de restitution d'un champ sonore. Un tel procédé comprend :
- une captation du champ sonore par une pluralité de N microphones délivrant chacun un champ sonore capté correspondant ;
- un encodage de chacun des champs sonores captés délivrant un champ sonore encodé correspondant sous une forme comprenant au moins une pression captée et un vecteur de gradients de pression associé ;
- une phase interpolation mettant en oeuvre le procédé d'interpolation décrit ci-dessus (selon l'un quelconque des modes de réalisation précités) délivrant le champ sonore encodé interpolé en la position d'interpolation ;
- une compression du champ sonore encodé interpolé délivrant un champ sonore encodé interpolé compressé ;
- une transmission du champ sonore encodé interpolé compressé à au moins un dispositif de restitution ;
- une décompression du champ sonore encodé interpolé compressé reçu ; et
- une restitution du champ sonore encodé interpolé sur ledit au moins un dispositif de restitution.
- a capture of the sound field by a plurality of N microphones each delivering a corresponding captured sound field;
- encoding each of the sensed sound fields delivering a corresponding encoded sound field in a form comprising at least one sensed pressure and an associated pressure gradient vector;
- an interpolation phase implementing the interpolation method described above (according to any one of the aforementioned embodiments) delivering the interpolated encoded sound field at the interpolation position;
- compression of the interpolated encoded sound field delivering a compressed interpolated encoded sound field;
- a transmission of the compressed interpolated encoded sound field to at least one rendering device;
- decompressing the received compressed interpolated encoded sound field; and
- a restitution of the interpolated encoded sound field on said at least one restitution device.
L'invention concerne également un programme d'ordinateur, comprenant des instructions de code de programme pour la mise en oeuvre d'un procédé d'interpolation ou de restitution tel que décrit précédemment, selon l'un quelconque de ses différents modes de réalisation, lorsque ledit programme est exécuté par un processeur.The invention also relates to a computer program, comprising program code instructions for the implementation of an interpolation or restitution method as described previously, according to any one of its various embodiments, when said program is executed by a processor.
Dans un autre mode de réalisation de l'invention, il est proposé un dispositif d'interpolation d'un champ sonore capté par une pluralité de N microphones délivrant chacun le champ sonore encodé sous une forme comprenant au moins une pression captée et un vecteur de gradients de pression associé. Un tel dispositif d'interpolation comprend une machine de calcul reprogrammable ou une machine de calcul dédiée, apte à et configurée pour mettre en oeuvre les étapes du procédé d'interpolation décrit précédemment (selon l'un quelconque de ses différents modes de réalisation).In another embodiment of the invention, there is proposed a device for interpolating a sound field picked up by a plurality of N microphones each delivering the sound field encoded in a form comprising at least one pressure picked up and a vector of associated pressure gradients. Such an interpolation device comprises a reprogrammable calculation machine or a dedicated calculation machine, capable of and configured to implement the steps of the interpolation method described previously (according to any one of its various embodiments).
Ainsi, les caractéristiques et avantages de ce dispositif sont les mêmes que ceux du procédé d'interpolation décrit précédemment. Par conséquent, ils ne sont pas détaillés plus amplement.Thus, the characteristics and advantages of this device are the same as those of the interpolation method described above. Therefore, they are not further detailed.
D'autres buts, caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante, donnée à titre de simple exemple illustratif, et non limitatif, en relation avec les figures, parmi lesquelles :
- [
fig. 1 ] représente une scène sonore dans laquelle un auditeur se déplace, un champ sonore ayant été diffusé par des sources sonores et ayant été capté par des microphones ; - [
fig. 2 ] représente les étapes d'un procédé d'interpolation du champ sonore capté par les microphones de la [fig. 1 ] selon un mode de réalisation de l'invention ; - [
fig. 3a ] représente une scène dans laquelle un champ sonore est diffusé par une source sonore unique et est capté par quatre microphones selon une première configuration ; - [
fig. 3b ] représente une cartographie de l'opposé de l'intensité acoustique normalisée dans le plan 2D générée par la source sonore de la scène de la [fig. 3a ] ainsi qu'une cartographie de l'opposé de l'intensité acoustique normalisée tel qu'estimée par une méthode connue à partir des grandeurs captées par les quatre microphones de la [fig. 3a ] ; - [
fig. 3c ] représente une cartographie de l'opposé de l'intensité acoustique normalisée dans le plan 2D générée par la source sonore de la scène de la [fig. 3a ] ainsi qu'une cartographie de l'opposé de l'intensité acoustique normalisée tel qu'estimée par la méthode de la figure [fig. 2 ] à partir des grandeurs captées par les quatre microphones de la [fig. 3a ] ; - [
fig. 4a ] représente une autre scène dans laquelle un champ sonore est diffusé par une source sonore unique et est capté par quatre microphones selon une deuxième configuration ; - [
fig. 4b ] représente une cartographie de l'opposé de l'intensité acoustique normalisée dans le plan 2D générée par la source sonore de la scène de la [fig. 4a ] ainsi qu'une cartographie de l'opposé de l'intensité acoustique normalisée du champ sonore tel qu'estimée par une méthode connue à partir des grandeurs captées par les quatre microphones de la [fig. 4a ] ; - [
fig. 4c ] représente une cartographie de l'opposé de l'intensité acoustique normalisée dans le plan 2D générée par la source sonore de la scène de la [fig. 4a ] ainsi qu'une cartographie de l'opposé de l'intensité acoustique normalisée du champ sonore tel qu'estimée par la méthode de la figure [fig. 2 ] à partir des grandeurs captées par les quatre microphones de la [fig. 4a ] ; - [
fig. 5 ] représente les étapes d'un procédé d'interpolation du champ sonore capté par les microphones de la [fig. 1 ] selon un autre mode de réalisation de l'invention; - [
fig. 6 ] représente les étapes d'un procédé de restitution, à l'auditeur de la [fig. 1 ], du champ sonore capté par les microphones de la [fig. 1 ] selon un mode de réalisation de l'invention ; - [
fig. 7 ] représente un exemple de structure de dispositif d'interpolation selon un mode de réalisation de l'invention.
- [
fig. 1 ] represents a sound scene in which a listener moves, a sound field having been diffused by sound sources and having been picked up by microphones; - [
fig. 2 ] represents the stages of a process of interpolation of the sound field picked up by the microphones of the [fig. 1 ] according to one embodiment of the invention; - [
fig. 3a ] represents a scene in which a sound field is broadcast by a single sound source and is picked up by four microphones according to a first configuration; - [
fig. 3b ] represents a map of the opposite of the normalized acoustic intensity in the 2D plane generated by the sound source of the scene of the [fig. 3a ] as well as a map of the opposite of the normalized acoustic intensity as estimated by a known method from the quantities picked up by the four microphones of the [fig. 3a ]; - [
fig. 3c ] represents a map of the opposite of the normalized acoustic intensity in the 2D plane generated by the sound source of the scene of the [fig. 3a ] as well as a map of the opposite of the normalized acoustic intensity as estimated by the method of figure [fig. 2 ] from the quantities picked up by the four microphones of the [fig. 3a ]; - [
fig. 4a ] shows another scene in which a sound field is broadcast by a single sound source and is picked up by four microphones according to a second configuration; - [
fig. 4b ] represents a map of the opposite of the normalized acoustic intensity in the 2D plane generated by the sound source of the scene of the [fig. 4a ] as well as a map of the opposite of the normalized acoustic intensity of the sound field as estimated by a known method from the quantities picked up by the four microphones of the [fig. 4a ]; - [
fig. 4c ] represents a map of the opposite of the normalized acoustic intensity in the 2D plane generated by the sound source of the scene of the [fig. 4a ] as well as a map of the opposite of the normalized acoustic intensity of the sound field as estimated by the method of figure [fig. 2 ] from the quantities picked up by the four microphones of the [fig. 4a ]; - [
fig. 5 ] represents the stages of a process of interpolation of the sound field picked up by the microphones of the [fig. 1 ] according to another embodiment of the invention; - [
fig. 6 ] represents the stages of a restitution process, to the listener of the [fig. 1 ], the sound field picked up by the microphones of the [fig. 1 ] according to one embodiment of the invention; - [
fig. 7 ] represents an example of an interpolation device structure according to one embodiment of the invention.
Sur toutes les figures du présent document, les éléments et étapes identiques sont désignés par une même référence.In all the figures of this document, the identical elements and steps are designated by the same reference.
Le principe général de l'invention repose sur l'encodage du champ sonore par les microphones captant le champ sonore en question sous une forme comprenant au moins une pression captée et un gradient de pression associé. De la sorte, le gradient de pression du champ interpolé via une combinaison linéaire des champs sonores encodés par les microphones reste cohérent avec celui du champ sonore tel qu'émis par la ou les source(s) de la scène à la position d'interpolation. Par ailleurs, la méthode selon l'invention base l'estimation des facteurs de pondération mis en jeu dans la combinaison linéaire en question sur une estimation de la puissance du champ sonore à la position d'interpolation. Ainsi, une complexité calculatoire faible est obtenue.The general principle of the invention is based on the encoding of the sound field by the microphones picking up the sound field in question in a form comprising at least one pressure picked up and an associated pressure gradient. In this way, the pressure gradient of the field interpolated via a linear combination of the sound fields encoded by the microphones remains consistent with that of the sound field as emitted by the source(s) of the scene at the interpolation position. . Moreover, the method according to the invention bases the estimation of the weighting factors involved in the linear combination in question on an estimation of the power of the sound field at the interpolation position. Thus, a low computational complexity is obtained.
On s'intéresse dans la suite à décrire un exemple particulier d'application de l'invention au contexte de la navigation d'un auditeur dans une scène sonore. On notera que l'invention n'est bien sûr pas limitée à ce type d'application et peut être avantageusement utilisée dans d'autres domaines comme celui de la restitution d'une scène multicanal, de la compression d'une scène multicanal, etc.We are interested in the following to describe a particular example of application of the invention to the context of the navigation of a listener in a sound scene. It will be noted that the invention is of course not limited to this type of application and can be advantageously used in other fields such as that of the restitution of a multi-channel scene, the compression of a multi-channel scene, etc.
Par ailleurs, dans la présente demande :
- la terminologie d'encodage (ou de codage) est utilisée pour désigner l'opération de représentation d'un champ sonore physique capté par un microphone donné suivant une ou plusieurs grandeurs selon un format de représentation prédéfini. Un tel format est par exemple le format ambisonique décrit ci-dessus en relation avec la section « Art antérieur et ses inconvénients ». L'opération inverse s'apparente alors à une restitution du champs sonore, e.g. sur un dispositif du type haut-parleur qui convertit des échantillons du champs sonore au format de représentation prédéfini en un champs acoustique physique ; et
- la terminologie de compression est quant à elle utilisée pour désigner un traitement visant à réduire la quantité de données nécessaire à représenter une quantité d'information donnée. Il s'agit par exemple d'un traitement du type « codage entropique » (e.g. selon le standard MP3) appliqué aux échantillons du champ sonore encodé. La terminologie de décompression correspond ainsi à l'opération inverse.
- the terminology of encoding (or coding) is used to designate the operation of representing a physical sound field picked up by a given microphone according to one or more quantities according to a predefined representation format. Such a format is for example the ambisonic format described above in relation to the section “Prior art and its disadvantages”. The inverse operation is then similar to a restitution of the sound field, eg on a device of the loudspeaker type which converts samples of the sound field in the predefined representation format into a physical acoustic field; and
- the terminology of compression is itself used to designate a processing aimed at reducing the quantity of data necessary to represent a given quantity of information. This is for example a processing of the “entropic coding” type (eg according to the MP3 standard) applied to the samples of the encoded sound field. The decompression terminology thus corresponds to the reverse operation.
On présente désormais en relation avec la [
Plus particulièrement, l'auditeur 110 est muni d'un casque équipé de haut-parleurs 110hp permettant la restitution du champ sonore interpolé à la position d'interpolation qu'il occupe. Il s'agit par exemple d'un casque Hi-Fi, ou d'un casque de réalité virtuelle comme l'Oculus, le HTC Vive ou encore le Samsung Gear. Le champ sonore est ici interpolé et restitué par mise en oeuvre du procédé de restitution décrit ci-dessous en relation avec la [
Par ailleurs, le champ sonore capté par les microphones 100m est encodé sous une forme comprenant une pression captée et un gradient de pression associé.Furthermore, the sound field picked up by the 100m microphones is encoded in a form comprising a picked up pressure and an associated pressure gradient.
Dans d'autres modes de réalisation non illustrés, le champ sonore capté par les microphones est encodé sous une forme comprenant la pression captée, le vecteur des gradients de pression associé ainsi que tout ou partie des composantes d'ordres supérieurs du champ sonore au format ambisonique.In other embodiments not illustrated, the sound field picked up by the microphones is encoded in a form comprising the pressure picked up, the vector of the associated pressure gradients as well as all or part of the higher order components of the sound field in the format ambisonic.
De retour à la [
On montre que ce vecteur est orthogonal au front d'onde et pointe dans la direction de la propagation de l'onde sonore, soit à l'opposé de la position de la source émettrice : en ce sens, il est directement corrélé avec la perception du front d'onde. C'est particulièrement évident si on considère un champ généré par une seule source ponctuelle et lointaine s(t) se propageant dans un milieu anéchoïque. La théorie de l'ambinosie stipule que, pour une telle onde plane d'incidence (θ, ϕ), où θ est l'azimut et ϕ l'élévation, le champ sonore au premier ordre est donné par l'équation suivante :
Dans ce cas, l'intensité acoustique pleine-bande
On voit donc qu'il pointe à l'opposé de la direction de la source émettrice et la direction d'arrivée (θ, ϕ) du front d'onde peut être estimée par les relations trigonométriques suivantes :
On présente désormais, en relation avec la [
Un tel procédé comprend une étape E200 de sélection de N microphones parmi les Nt microphones de la scène 100. On notera que dans le mode de réalisation représenté sur la [
Plus particulièrement, comme discuté ci-dessous en relation avec les étapes E210 et E210a, le procédé selon l'invention met en oeuvre la résolution de systèmes d'équations (i.e. [Math 4] dans différentes alternatives de contraintes (i.e. hyperplan et/ou positivité des facteurs de pondération) et [Math 5]). En pratique, il s'avère que la résolution des systèmes en question dans le cas où ils sont sous-déterminés (cas qui correspond à la configuration où il y a plus de microphones 100m que d'équations à résoudre) amène à des solutions qui, au cours du temps, peuvent privilégier différents ensembles de microphones. Si la localisation des sources 100s telle que perçue via le champ sonore interpolé reste toujours cohérente, il en résulte cependant des changements de timbres perceptibles à l'oreille. Ces différences sont dues : i) à la coloration de la réverbération qui est différente d'un microphone 100m à un autre ; ii) au filtrage en peigne induit par le mélange de microphones 100m non coïncidents, filtrage qui a des caractéristiques différentes d'un ensemble de microphones à un autre.More particularly, as discussed below in relation to steps E210 and E210a, the method according to the invention implements the resolution of systems of equations (i.e. [Math 4] in different constraint alternatives (i.e. hyperplane and/or positivity of the weighting factors) and [Math 5]). In practice, it turns out that the resolution of the systems in question in the case where they are under-determined (case which corresponds to the configuration where there are more 100m microphones than equations to be solved) leads to solutions which , over time, may favor different sets of microphones. If the localization of the
Pour éviter de tels changements de timbres, on sélectionne N microphones 100m en se ramenant à un mélange déterminé, voire sur-déterminé. Par exemple, dans le cas d'une interpolation en 3D, on pourra sélectionner jusqu'à trois microphones parmi les Nt microphones 100m.To avoid such changes in timbre,
Dans une variante, on sélectionne les N microphones 110m les plus proches de la position à interpoler. Cette solution est à privilégier lorsqu'un grand nombre Nt de microphones 110m est présent dans la scène. Cependant, dans certains cas, le choix des N microphones 110m les plus proches peut s'avérer « déséquilibré » en regard de la position d'interpolation par rapport à la source 100s et amener à une inversion complète de la direction d'arrivée : c'est notamment le cas lorsque la source 100s est placée entre les microphones 100m et la position d'interpolation.In a variant, the N microphones 110m closest to the position to be interpolated are selected. This solution is to be preferred when a large number Nt of 110m microphones is present in the scene. However, in some cases, the choice of the N closest 110m microphones may turn out to be "unbalanced" with regard to the interpolation position with respect to the 100s source and lead to a complete inversion of the direction of arrival: c This is notably the case when the 100s source is placed between the 100m microphones and the interpolation position.
Pour éviter cette situation, dans une autre variante les N microphones sont choisis de manière répartie autour de la position d'interpolation. Par exemple, on sélectionne les deux microphones d'indices i1 et i2 les plus proches de la position d'interpolation parmi les Nt microphones 100m, puis on cherche parmi les microphones restants celui qui maximise « l'enveloppement » de la position d'interpolation. Pour réaliser ceci, l'étape E200 comprend par exemple :
- une sélection de deux microphones d'indices i1 et i2 les plus proches de la position d'interpolation parmi les Nt microphones 110m ;
- un calcul d'un vecteur médian u12(t) ayant pour origine la position d'interpolation et pointant entre les positions des deux microphones d'indices i1 et i2 ; et
- une détermination d'un troisième microphone d'indices i3 différent des deux microphones d'indices i1 et i2 parmi les Nt microphones 110m et dont la position est la plus à l'opposé du vecteur médian u12(t).
- a selection of two microphones of indices i 1 and i 2 closest to the interpolation position from among the Nt microphones 110m;
- a calculation of a median vector u 12 (t) originating from the interpolation position and pointing between the positions of the two microphones of indices i 1 and i 2 ; and
- a determination of a third microphone of indices i 3 different from the two microphones with indices i 1 and i 2 among the Nt microphones 110m and whose position is furthest away from the median vector u 12 (t).
Par exemple, le vecteur médian u12(t) s'exprime comme :
- xa (t) = (xa (t) ya (t) za (t)) T un vecteur représentatif de la position d'interpolation (i.e. la position de l'auditeur 110 dans le mode de réalisation représenté sur la [
fig. 1 ]) ; - x i
1 (t) = (x i1 (t) y i1 (t) z i1 (t)) T un vecteur représentatif de la position du microphone d'indice i1 ; et - x i
2 (t) = (x i2 (t) y i2 (t) z i2 (t)) T un vecteur représentatif de la position du microphone d'indice i2 ,
- x a ( t ) = ( x a ( t ) y a ( t ) z a ( t )) T a vector representative of the interpolation position (ie the position of the
listener 110 in the embodiment represented on the [fig. 1 ]); - x i
1 ( t ) = ( x i1 ( t ) y i1 ( t ) z i1 ( t )) T a vector representative of the position of the microphone of index i 1 ; and - x i
2 ( t ) = ( x i2 ( t ) y i2 ( t ) z i2 ( t )) T a vector representative of the position of the microphone of index i 2 ,
Dans ce cas, l'indice i3 dudit troisième microphone est par exemple un indice différent de i1 et i2 qui minimise le produit scalaire
Dans d'autres modes de réalisation non illustrés sur la [
De retour à la [
Ainsi, dans le mode de réalisation discuté ci-dessus en relation avec la [
- (Wi (t) Xi (t) Yi (t) Zi (t)) T le vecteur colonne du champ au format encodé délivré par le microphone d'indice i, i un entier de 1 à N ;
- (Wa (t) Xa (t) Ya (t) Za (t)) T le vecteur colonne du champ au format encodé au niveau de la position d'interpolation (e.g. la position de l'auditeur 110 dans le mode de réalisation illustré sur la [
fig. 1 ]) ; et - ai (t) le facteur de pondération pondérant le champ au format encodé délivré par le microphone d'indice i dans la combinaison linéaire donnée par [Math 1].
- ( W i ( t ) X i ( t ) Y i ( t ) Z i ( t )) T the column vector of the field in the encoded format delivered by the microphone of index i, i an integer from 1 to N;
- ( W a ( t ) X a ( t ) Y a ( t ) Z a ( t )) T the column vector of the field in the encoded format at the level of the interpolation position (eg the position of the
listener 110 in the embodiment illustrated in [fig. 1 ]); and - a i ( t ) the weighting factor weighting the field in encoded format delivered by the microphone of index i in the linear combination given by [Math 1].
Dans d'autres modes de réalisation non illustrés sur la [
Quel que soit le mode de réalisation considéré pour l'encodage du champ sonore, le procédé d'interpolation selon l'invention s'applique de la même manière afin d'estimer les facteurs de pondération ai (t).Whatever the embodiment considered for the encoding of the sound field, the interpolation method according to the invention applies in the same way in order to estimate the weighting factors a i ( t ).
Pour ce faire, le procédé de la [
Plus particulièrement, dans le mode de réalisation de la [
- xi (t) = (xi (t) yi (t) zi (t)) T un vecteur représentatif de la position du
microphone 100m d'indice i ; - xs (t) = (xs (t) ys (t) zs (t)) T un vecteur représentatif de la position de la
source 100s active ; et - d(xi (t), x s (t)) est la distance entre le
microphone 100m d'indice i et lasource 100s active.
- x i ( t ) = ( x i ( t ) y i ( t ) z i ( t )) T a vector representative of the position of the
microphone 100m of index i ; - x s ( t ) = ( x s ( t ) y s ( t ) z s ( t )) T a vector representative of the position of the active 100s source; and
- d ( xi ( t ), xs(t ) ) is the distance between the 100m microphone of index i and the active 100s source.
L'équation [Math 2] traduit ici simplement que pour une onde plane :
- La composante du premier ordre (i.e. le vecteur des gradients de pression) du champ sonore encodé est orienté dans la direction « source-point de captation » ; et
- L'amplitude du champ sonore décroit linéairement avec la distance.
- The first-order component (ie the vector of pressure gradients) of the encoded sound field is oriented in the “source-point of capture” direction; and
- The amplitude of the sound field decreases linearly with distance.
La distance d(xi (t),xs (t)) est a priori inconnue, mais on peut observer que, dans l'hypothèse d'une onde plane unique, la pression acoustique instantanée Wi (t) au niveau du microphone 100m d'indice i est, elle-aussi, inversement proportionnelle à cette distance. Ainsi :
En substituant cette relation dans [Math 2], on obtient la relation de proportionnalité suivante :
En remplaçant la relation cette dernière relation dans [Math 1], on obtient l'équation suivante :
En général, les différentes positions précitées (e.g. de la source 100s active, des microphones 100m, de la position d'interpolation, etc.) varient dans le temps. Ainsi les facteurs de pondération ai (t) sont de manière générale fonction du temps. Estimer les facteurs de pondération ai (t) revient à résoudre un système de trois équations linéaires (écrites ci-dessus sous forme d'une seule équation vectorielle dans [Math 3]). Pour que l'interpolation reste cohérente au cours du temps avec la position d'interpolation qui peut varier dans le temps (e.g. si la position en question correspond à la position de l'auditeur 110 qui est amené à se déplacer), elle est réalisée à différents instants avec une résolution temporelle Ta adaptée à la vitesse de changement de la position d'interpolation. En pratique, une fréquence de rafraîchissement fa =
Dans [Math 3], le carré de la pression sonore au niveau de la position d'interpolation,
Afin de pouvoir estimer les facteurs de pondération ai (t) sur la base d'une résolution de [Math 3], une estimation
Une première approche consiste à approcher la puissance acoustique instantanée par celle captée par le microphone 100m le plus proche de la position d'interpolation en question, i.e. :
En pratique, la puissance acoustique instantanée
Dans d'autres variantes, on peut estimer la puissance efficace par lissage autorégressif de la forme :
Dans une deuxième approche, la puissance acoustique instantanée
Dans des alternatives, la puissance acoustique instantanée
Par ailleurs, différents choix de la norme p peuvent être envisagés. Par exemple une valeur faible de p tend à moyenner la puissance sur toute la zone délimitée par les microphones 100m, tandis qu'une valeur élevée tend à privilégier le microphone 100m le plus proche de la position d'interpolation, le cas p = ∞ revenant à l'estimation par celle du microphone 100m le plus proche. Par exemple, lorsque p est choisi égal à deux, la loi de décroissance de la pression du champ sonore est respectée, conduisant à de bons résultats quelle que soit la configuration de la scène.Moreover, different choices of the norm p can be envisaged. For example, a low value of p tends to average the power over the entire area bounded by the 100m microphones, while a high value tends to favor the 100m microphone closest to the interpolation position, the case p = ∞ returning to the estimate by that of the nearest 100m microphone. For example, when p is chosen equal to two, the law of decreasing sound field pressure is respected, leading to good results whatever the configuration of the stage.
Par ailleurs, l'estimation des facteurs de pondération ai (t) sur la base d'une résolution de [Math 3] nécessite d'adresser la problématique de la non connaissance du vecteur représentatif de la position xs (t) de la source 100s active.Moreover, the estimation of the weighting factors a i ( t ) on the basis of a resolution of [Math 3] requires addressing the problem of not knowing the representative vector of the position x s ( t ) of the
Dans une première variante, on estime les facteurs de pondération ai (t) en négligeant le terme contenant la position de la source que l'on ne connaît pas, i.e. le membre de droite dans [Math 3]. Par ailleurs, à partir de l'estimation de la puissance
Ainsi, il apparaît que les facteurs de pondération ai (t) sont estimés à partir :
- de la position d'interpolation, représentée par le vecteur xa (t) ;
- de la position de chacun des
N microphones 100m, représentée par le vecteur xi (t) correspondant, i de 1 à N, dans le repère précité; - des N pressions Wi (t), i de 1 à N, captées par les N microphones ; et
- de la puissance estimée
- the interpolation position, represented by the vector x a ( t );
- the position of each of the
N microphones 100m, represented by the corresponding vector x i ( t ), i from 1 to N, in the aforementioned frame; - N pressures W i ( t ), i from 1 to N, picked up by the N microphones; and
- estimated power
Par exemple, [Math 4] est résolue au sens de la minimisation de l'erreur quadratique moyenne, e.g. par minimisation de la fonction de coût
Dans une deuxième variante, on estime les facteurs de pondération ai (t) non plus en négligeant le terme contenant la position de la source que l'on ne connaît pas, i.e. le membre de droite de [Math 3], mais en contraignant la recherche des coefficients ai (t) autour de l'hyperplan
Ainsi, dans cette deuxième variante, les facteurs de pondération ai (t) sont estimés par résolution du système [Math 4] sous la contrainte que
Pour accélérer la recherche, on peut ajouter une contrainte de positivité des facteurs de pondération ai (t). Dans ce cas, les facteurs de pondération ai (t) sont estimés par résolution du système [Math 4] sous la double contrainte que
Alternativement, afin de réduire le temps de calcul, une autre implémentation consiste à intégrer directement la contrainte de l'hyperplan
Ici, le coefficient α permet d'homogénéiser les unités des grandeurs
On note ainsi que dans cette deuxième variante également, les facteurs de pondération ai (t) sont estimés à partir :
- de la position d'interpolation, représentée par le vecteur xa (t) ;
- de la position de chacun des
N microphones 100m , représentées chacune par le vecteur xi (t) correspondant, i de 1 à N; - des N pressions Wi (t), i de 1 à N, captées par les N microphones ; et
- de la puissance estimée
- the interpolation position, represented by the vector x a ( t );
- the position of each of the
N microphones 100m , each represented by the corresponding vector x i ( t ), i from 1 to N; - N pressures W i ( t ) , i from 1 to N, picked up by the N microphones; and
- estimated power
On présente désormais, en relation avec les [
Plus particulièrement, les quatre microphones 300m sont disposés aux quatre coins d'une pièce et la source 300s est disposée au centre de la pièce. La pièce présente une réverbération moyenne, avec un temps de réverbération ou T60 d'environ 500ms. Le champ sonore capté par les microphones 300m est encodé sous une forme comprenant une pression captée et le vecteur de gradients de pression associé.More particularly, the four
Les résultats obtenus par application du procédé de la [
Les simulations montrent que cette formule heuristique donne de meilleurs résultats que la méthode avec des poids fixes proposée dans la littérature.The simulations show that this heuristic formula gives better results than the method with fixed weights proposed in the literature.
Pour mesurer la performance de l'interpolation du champ, on utilise le vecteur intensité
On présente désormais, en relation avec les [
Plus particulièrement, par rapport à la configuration de la scène 300 de la [
Sur les [
On présente désormais, en relation avec la [
Selon le mode de réalisation de la [
Cependant, dans d'autres modes de réalisation non illustrés sur la [
De retour à la [
Pour éviter ceci, le mode de réalisation de la [
Ainsi, lors d'une étape E500, pour un champ sonore encodé donné parmi les N champs sonores encodés délivrés par les N microphones 100m sélectionnés, une transformation du champ sonore encodé donné est effectuée par application d'une transformation temps-fréquence comme la transformée de Fourier ou d'un banc de filtres à reconstruction parfaite ou presque parfaite, comme les filtres miroirs en quadrature ou QMF. Une telle transformation délivre M composantes fréquentielles de champ associées au champ sonore encodé donné, chaque composante fréquentielle de champ parmi les M composantes fréquentielles de champ étant localisée dans une sous-bande fréquentielle distincte.Thus, during a step E500, for a given encoded sound field from among the N encoded sound fields delivered by the N selected
Par exemple, le vecteur de champs encodé, ψi , délivré par le microphone d'indice i, i de 1 à N, est segmenté en trames d'indice n, de taille T compatible avec la stationnarité des sources présentes dans la scène :
Le rythme trame correspond par exemple au rythme de réactualisation Ta des facteurs de pondération ai (t), i.e. :
La transformation est ainsi appliquée à chaque composante du vecteur ψi représentant le champ sonore encodé par le microphone 100m d'indice i (i.e. est appliquée à la pression captée, aux composantes du vecteur des gradients de pression, ainsi qu'aux composantes d'ordre supérieur présentes dans le champ sonore encodé le cas échant), pour produire une représentation temps-fréquence. Par exemple, la transformation en question est une transformation de Fourier directe. De sorte, on obtient pour la I-ème composante ψ i,l du vecteur ψi :
En pratique, on peut choisir T comme une puissance de deux (e.g. immédiatement supérieure à Ta ) et choisir ω = 2πk/T, 0 ≤ k < T de sorte à implémenter la transformation de Fourier sous forme d'une transformée de Fourier rapide
Dans ce cas, le nombre de composantes fréquentielles M est égal à la taille de la trame d'analyse T. Lorsque T > Ta, on peut également appliquer la technique du zero-padding afin d'appliquer la transformation de Fourier rapide. Ainsi, pour une sous-bande fréquentielle ω (ou k dans le cas d'une transformée de Fourier rapide) considérée, le vecteur constitué de l'ensemble des composantes ψ i,l (n,ω), (ou ψ i,l (n,k)) pour les différents /, représente la composante fréquentielle du champ ψ i dans la sous-bande fréquentielle ω (ou k) considérée.In this case, the number of frequency components M is equal to the size of the analysis frame T. When T>T a , the zero-padding technique can also be applied in order to apply the fast Fourier transformation. Thus, for a frequency sub-band ω (or k in the case of a fast Fourier transform) considered, the vector made up of the set of components ψ i , l ( n , ω ), (or ψ i,l ( n , k )) for the different /, represents the frequency component of the field ψ i in the frequency sub-band ω (or k) considered.
Par ailleurs, dans d'autres variantes, la transformation appliquée à l'étape E500 n'est pas une transformée de Fourier, mais un banc de filtres à reconstruction (presque) parfaite, par exemple un banc de filtres :
- QMF (de l'anglais « Quadrature Mirror Filter ») ;
- PQMF (de l'anglais « Pseudo - Quadrature Mirror Filter ») ; ou
- MDCT (de l'anglais « Modified Discrète Cosine Transform »).
- QMF (from the English “Quadrature Mirror Filter”);
- PQMF (from the English “Pseudo-Quadrature Mirror Filter”); Where
- MDCT (from the English “Modified Discrete Cosine Transform”).
De retour à la [
De la sorte, les étapes E210 et E210a décrites ci-dessus en relation avec la [
Par exemple, afin de mettre en oeuvre la résolution des systèmes [Math 4] ou [Math 5], la puissance efficace dans chaque sous-bande fréquentielle est estimée soit par moyenne glissante :
Ainsi, l'interpolation répétée pour les M sous-bandes fréquentielles délivre M composantes fréquentielles de champ interpolées en la position d'interpolation, chaque composante fréquentielle de champ interpolée parmi les M composantes fréquentielles de champ interpolées étant localisée dans une sous-bande fréquentielle distincte.Thus, the repeated interpolation for the M frequency sub-bands delivers M interpolated field frequency components at the interpolation position, each interpolated field frequency component among the M interpolated field frequency components being located in a distinct frequency sub-band .
Ainsi, lors d'une étape E510, une transformation inverse à la transformation appliquée lors de l'étape E500 est appliquée aux M composantes fréquentielles de champ interpolées délivrant le champ sonore encodé interpolé en la position d'interpolation.Thus, during a step E510, a transformation inverse to the transformation applied during step E500 is applied to the M interpolated field frequency components delivering the interpolated encoded sound field at the interpolation position.
Par exemple, reconsidérant l'exemple donné ci-dessus où la transformation appliquée lors de l'étape E500 est une transformée de Fourier directe, la transformation inverse appliquée lors de l'étape E510 est une transformée de Fourier inverse.For example, reconsidering the example given above where the transformation applied during step E500 is a direct Fourier transform, the inverse transformation applied during step E510 is an inverse Fourier transform.
On présente désormais, en relation avec la [
Plus particulièrement, lors d'une étape E600, le champ sonore est capté par les microphones 110m, chaque microphone parmi les microphones 110m délivrant un champ sonore capté correspondant.More particularly, during a step E600, the sound field is picked up by the microphones 110m, each microphone among the microphones 110m delivering a corresponding picked up sound field.
Lors d'une étape E610, chacun des champs sonores captés est encodé sous une forme comprenant la pression captée et un vecteur de gradients de pression associé.During a step E610, each of the sound fields picked up is encoded in a form comprising the pressure picked up and an associated vector of pressure gradients.
Dans d'autres modes de réalisation non illustrés, le champ sonore capté par les microphones 110m est encodé sous une forme comprenant la pression captée, un vecteur de gradients de pression associé ainsi que tout ou partie des composantes d'ordres supérieurs du champ sonore décomposé au format ambisonique.In other embodiments not illustrated, the sound field picked up by the microphones 110m is encoded in a form comprising the pressure picked up, a vector of associated pressure gradients as well as all or part of the higher order components of the decomposed sound field in Ambisonics format.
De retour à la [
Lors d'une étape E630, le champ sonore encodé interpolé est compressé, e.g. par mise en oeuvre d'un codage entropique. Un champ sonore encodé interpolé compressé est ainsi délivré. Par exemple, l'étape E630 de compression est mise en oeuvre par le dispositif 700 (décrit ci-dessous en relation avec la
Ainsi, lors d'une étape E640, le champ sonore encodé interpolé compressé délivré par le dispositif 700 est transmis au dispositif de restitution 110hp. Dans d'autres modes de réalisation, le champ sonore encodé interpolé compressé est transmis à un autre dispositif disposant d'une capacité de calcul permettant de décompresser un contenu compressé, e.g. un smartphone, un ordinateur, ou tout autre terminal connecté disposant d'une capacité de calcul suffisante, en vue d'une transmission ultérieure.Thus, during a step E640, the compressed interpolated encoded sound field delivered by the
De retour à la [
Lors d'une étape E660, le champ sonore encodé interpolé est restitué sur le dispositif de restitution 110hp.During a step E660, the interpolated encoded sound field is reproduced on the restitution device 110hp.
Ainsi, lorsque la position d'interpolation correspond à la position physique de l'auditeur 110, ce dernier a l'impression que le champ sonore qui lui est restitué est cohérent avec les sources sonores 100s (i.e. que le champ qui lui est restitué arrive effectivement en direction des sources sonores 100s).Thus, when the interpolation position corresponds to the physical position of the
Dans certains modes de réalisation non illustrés sur la [
Dans d'autres modes de réalisation non illustrés sur la [
On présente désormais, en relation avec la [
Le dispositif 700 comprend une mémoire vive 703 (par exemple une mémoire RAM), une unité de traitement 702 équipée par exemple d'un processeur, et pilotée par un programme d'ordinateur stocké dans une mémoire morte 701 (par exemple une mémoire ROM ou un disque dur). A l'initialisation, les instructions de code du programme d'ordinateur sont par exemple chargées dans la mémoire vive 703 avant d'être exécutées par le processeur de l'unité de traitement 702.The
Cette [
Dans le cas où le dispositif 700 est réalisé avec une machine de calcul reprogrammable, le programme correspondant (c'est-à-dire la séquence d'instructions) pourra être stocké dans un médium de stockage amovible (tel que par exemple une disquette, un CD-ROM ou un DVD-ROM) ou non, ce médium de stockage étant lisible partiellement ou totalement par un ordinateur ou un processeur.In the case where the
Par ailleurs, dans certains modes de réalisation discutés ci-dessus en relation avec la [
Ainsi, dans certains modes de réalisation, le dispositif 700 est inclus dans le dispositif de restitution 110hp.Thus, in some embodiments,
Dans d'autres modes de réalisation, le dispositif 700 est inclus dans un des microphones 110m ou bien est dupliqué dans plusieurs des microphones 110m.In other embodiments, the
Dans encore d'autres modes de réalisation, le dispositif 700 est inclus dans un équipement déporté à la fois des microphones 110m ainsi que du dispositif de restitution 110hp. Par exemple, l'équipement déporté est un décodeur MPEG-H 3D, un serveur de contenus, un ordinateur, etc.In yet other embodiments, the
Claims (16)
- A method for interpolating a sound field captured by a plurality of N microphones each outputting said encoded sound field in a form comprising at least one captured pressure and an associated pressure gradient vector,said method comprising an interpolation of said sound field at an interpolation position outputting an interpolated encoded sound field as a linear combination of said N encoded sound fields each weighted by a corresponding weighting factor,characterised in that said interpolation comprises an estimation of said N weighting factors at least from:- said interpolation position;- a position of each of said N microphones,- said N pressures captured by said N microphones; and- an estimated power of said sound field at said interpolation position.
- The method according to claim 1, wherein said estimation implements a resolution of the equation- x i (t) a vector representative of said position of the microphone bearing the index i among said N microphones,- x a (t) a vector representative of said interpolation position;
- The method according to claim 3, wherein said resolution is further performed with the constraint that of the N weighting factors ai (t) are positive or zero.
- The method according to any one of claims 2 to 5, wherein said estimation comprises:- a time averaging of said instantaneous power
- The method according to any one of claims 2 to 6, wherein said estimate
- The method according to any one of claims 2 to 6, wherein said estimate
- The method according to any one of claims 1 to 8, further comprising, prior to said interpolation, a selection of said N microphones among Nt microphones, Nt>N.
- The method according to claim 9, wherein the N selected microphones are those the closest to said interpolation position among said Nt microphones.
- The method according to claim 9, wherein said selection comprising:- a selection of two microphones bearing the indexes i1 and i2 the closest to said interpolation position among said Nt microphones;- a calculation of a median vector u 12(t) having as an origin said interpolation position and pointing between the positions of the two microphones bearing the indexes i1 and i2; and- a determination of a third microphone bearing the index i3 different from said two microphones bearing the indexes i1 and i2 among the Nt microphones and whose position is the most opposite to the median vector u 12(t).
- The method according to any one of claims 1 to 11, further comprising, for given encoded sound field among said N encoded sound fields output by said N microphones, a transformation of said given encoded sound field by application of a perfect reconstruction filter bank outputting M field frequency components associated to said given encoded sound field, each field frequency component among said M field frequency components being located in a distinct frequency sub-band,said transformation repeated for said N encoded sound fields outputting N corresponding sets of M field frequency components,wherein, for a given frequency sub-band among said M frequency sub-bands, said interpolation outputs a field frequency component interpolated at said interpolation position and located within said given frequency sub-band, said interpolated field frequency component being expressed as a linear combination of said N field frequency components, among said N sets, located in said given frequency sub-band,said interpolation repeated for said M frequency sub-bands outputting M interpolated field frequency components at said interpolation position, each interpolated field frequency component among said M interpolated field frequency components being located in a distinct frequency sub-band.
- The method according to claim 12, further comprising an inverse transformation of said transformation, said inverse transformation applied to said M interpolated field frequency components outputting said interpolated encoded sound field at said interpolation position.
- A method for rendering a sound field characterised in that it comprises:- capturing said sound field by a plurality of N microphones each outputting a corresponding captured sound field;- encoding of each of said captured sound fields outputting a corresponding encoded sound field in a form comprising at least one captured pressure and an associated pressure gradient vector;- an interpolation phase according to any one of claims 1 to 13 outputting said interpolated encoded sound field at said interpolation position;- a compression of said interpolated encoded sound field outputting a compressed interpolated encoded sound field;- a transmission of said compressed interpolated encoded sound field to at least one rendering device;- a decompression of said received compressed interpolated encoded sound field; and- rendering said interpolated encoded sound field on said at least one rendering device.
- A computer program product, comprising program code instructions for the implementation of a method according to any one of claims 1 to 14, when said program is executed on a computer.
- A device for interpolating a sound field captured by a plurality of N microphones each outputting said encoded sound field in a form comprising at least one captured pressure and an associated pressure gradient vector,said device comprising a reprogrammable computing machine or a dedicated computing machine, configured to interpolate said sound field at an interpolation position outputting an interpolated encoded sound field expressed as a linear combination of said N encoded sound fields each weighted by a corresponding weighting factor,characterised in that said reprogrammable computing machine or said dedicated computing machine is further configured to estimate said N weighting factors from at least:- said interpolation position;- a position of each of said N microphones,- said N pressures captured by said N microphones, and- an estimate of the power of said sound field at said interpolation position.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1872951A FR3090179B1 (en) | 2018-12-14 | 2018-12-14 | A method of interpolating a sound field, produces a corresponding computer program and device. |
PCT/EP2019/085175 WO2020120772A1 (en) | 2018-12-14 | 2019-12-13 | Method for interpolating a sound field and corresponding computer program product and device |
Publications (2)
Publication Number | Publication Date |
---|---|
EP3895446A1 EP3895446A1 (en) | 2021-10-20 |
EP3895446B1 true EP3895446B1 (en) | 2023-01-25 |
Family
ID=66530214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP19816809.8A Active EP3895446B1 (en) | 2018-12-14 | 2019-12-13 | Method for interpolating a sound field and corresponding computer program product and device |
Country Status (4)
Country | Link |
---|---|
US (1) | US11736882B2 (en) |
EP (1) | EP3895446B1 (en) |
FR (1) | FR3090179B1 (en) |
WO (1) | WO2020120772A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2588801A (en) * | 2019-11-08 | 2021-05-12 | Nokia Technologies Oy | Determination of sound source direction |
FR3131164B1 (en) | 2021-12-16 | 2023-12-22 | Fond B Com | Method for estimating a plurality of signals representative of the sound field at a point, associated electronic device and computer program |
US20240098439A1 (en) * | 2022-09-15 | 2024-03-21 | Sony Interactive Entertainment Inc. | Multi-order optimized ambisonics encoding |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9883312B2 (en) * | 2013-05-29 | 2018-01-30 | Qualcomm Incorporated | Transformed higher order ambisonics audio data |
WO2018064528A1 (en) * | 2016-09-29 | 2018-04-05 | The Trustees Of Princeton University | Ambisonic navigation of sound fields from an array of microphones |
-
2018
- 2018-12-14 FR FR1872951A patent/FR3090179B1/en active Active
-
2019
- 2019-12-13 WO PCT/EP2019/085175 patent/WO2020120772A1/en unknown
- 2019-12-13 US US17/413,229 patent/US11736882B2/en active Active
- 2019-12-13 EP EP19816809.8A patent/EP3895446B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2020120772A1 (en) | 2020-06-18 |
FR3090179B1 (en) | 2021-04-09 |
FR3090179A1 (en) | 2020-06-19 |
US20220132262A1 (en) | 2022-04-28 |
EP3895446A1 (en) | 2021-10-20 |
US11736882B2 (en) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2898707B1 (en) | Optimized calibration of a multi-loudspeaker sound restitution system | |
EP3895446B1 (en) | Method for interpolating a sound field and corresponding computer program product and device | |
EP2374123B1 (en) | Improved encoding of multichannel digital audio signals | |
EP2374124B1 (en) | Advanced encoding of multi-channel digital audio signals | |
EP3807669B1 (en) | Location of sound sources in a given acoustic environment | |
EP2002424B1 (en) | Device and method for scalable encoding of a multichannel audio signal based on a principal component analysis | |
EP3427260B1 (en) | Optimized coding and decoding of spatialization information for the parametric coding and decoding of a multichannel audio signal | |
EP1546916B1 (en) | Method and system for processing a sound field representation | |
EP2845191A1 (en) | Systems and methods for source signal separation | |
EP1479266B1 (en) | Method and device for control of a unit for reproduction of an acoustic field | |
EP1586220B1 (en) | Method and device for controlling a reproduction unit using a multi-channel signal | |
EP3475943A1 (en) | Method for conversion, stereophonic encoding, decoding and transcoding of a three-dimensional audio signal | |
EP2517201B1 (en) | Sparse audio processing | |
EP3400599B1 (en) | Improved ambisonic encoder for a sound source having a plurality of reflections | |
EP1502475B1 (en) | Method and system of representing a sound field | |
FR2858403A1 (en) | SYSTEM AND METHOD FOR DETERMINING REPRESENTATION OF AN ACOUSTIC FIELD | |
WO2018115666A1 (en) | Processing in sub-bands of an actual ambisonic content for improved decoding | |
WO2018050292A1 (en) | Device and method for capturing and processing a three-dimensional acoustic field | |
FR3051959A1 (en) | METHOD AND DEVICE FOR ESTIMATING A DEREVERBERE SIGNAL | |
WO2011012789A1 (en) | Source location | |
WO2009081002A1 (en) | Processing of a 3d audio stream as a function of a level of presence of spatial components | |
WO2023187126A1 (en) | Method and device for decoding a digital hologram, method and device for encoding a digital hologram, and associated computer program | |
JP2023532969A (en) | Efficient head relation filter generation | |
FR3134198A1 (en) | Method and device for decoding a digital hologram, method and device for coding a digital hologram and associated computer program | |
FR3101741A1 (en) | Determination of corrections to be applied to a multichannel audio signal, associated encoding and decoding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: UNKNOWN |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE |
|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE |
|
17P | Request for examination filed |
Effective date: 20210521 |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
DAV | Request for validation of the european patent (deleted) | ||
DAX | Request for extension of the european patent (deleted) | ||
GRAP | Despatch of communication of intention to grant a patent |
Free format text: ORIGINAL CODE: EPIDOSNIGR1 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: GRANT OF PATENT IS INTENDED |
|
INTG | Intention to grant announced |
Effective date: 20220804 |
|
GRAS | Grant fee paid |
Free format text: ORIGINAL CODE: EPIDOSNIGR3 |
|
GRAA | (expected) grant |
Free format text: ORIGINAL CODE: 0009210 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE PATENT HAS BEEN GRANTED |
|
AK | Designated contracting states |
Kind code of ref document: B1 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
REG | Reference to a national code |
Ref country code: GB Ref legal event code: FG4D Free format text: NOT ENGLISH |
|
REG | Reference to a national code |
Ref country code: CH Ref legal event code: EP |
|
REG | Reference to a national code |
Ref country code: AT Ref legal event code: REF Ref document number: 1546591 Country of ref document: AT Kind code of ref document: T Effective date: 20230215 Ref country code: IE Ref legal event code: FG4D Free format text: LANGUAGE OF EP DOCUMENT: FRENCH |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R096 Ref document number: 602019024868 Country of ref document: DE |
|
REG | Reference to a national code |
Ref country code: LT Ref legal event code: MG9D |
|
REG | Reference to a national code |
Ref country code: NL Ref legal event code: MP Effective date: 20230125 |
|
REG | Reference to a national code |
Ref country code: AT Ref legal event code: MK05 Ref document number: 1546591 Country of ref document: AT Kind code of ref document: T Effective date: 20230125 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: NL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: RS Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 Ref country code: PT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230525 Ref country code: NO Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230425 Ref country code: LV Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 Ref country code: LT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 Ref country code: HR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 Ref country code: ES Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 Ref country code: AT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 Ref country code: PL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 Ref country code: IS Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230525 Ref country code: GR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230426 Ref country code: FI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R097 Ref document number: 602019024868 Country of ref document: DE |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SM Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 Ref country code: RO Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 Ref country code: EE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 Ref country code: DK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 Ref country code: CZ Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 |
|
PLBE | No opposition filed within time limit |
Free format text: ORIGINAL CODE: 0009261 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT |
|
26N | No opposition filed |
Effective date: 20231026 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: GB Payment date: 20231229 Year of fee payment: 5 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230125 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: FR Payment date: 20231219 Year of fee payment: 5 Ref country code: DE Payment date: 20231221 Year of fee payment: 5 |