EP1994526B1 - Synthese et spatialisation sonores conjointes - Google Patents
Synthese et spatialisation sonores conjointes Download PDFInfo
- Publication number
- EP1994526B1 EP1994526B1 EP07731685A EP07731685A EP1994526B1 EP 1994526 B1 EP1994526 B1 EP 1994526B1 EP 07731685 A EP07731685 A EP 07731685A EP 07731685 A EP07731685 A EP 07731685A EP 1994526 B1 EP1994526 B1 EP 1994526B1
- Authority
- EP
- European Patent Office
- Prior art keywords
- spatialization
- parameters
- source
- channel
- frequency component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/265—Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
- G10H2210/295—Spatial effects, musical uses of multiple audio channels, e.g. stereo
- G10H2210/301—Soundscape or sound field simulation, reproduction or control for musical purposes, e.g. surround or 3D sound; Granular synthesis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/11—Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
Definitions
- the present invention relates to audio processing and, more particularly, to three-dimensional spatialization of synthetic sound sources.
- non- parametric methods are known .
- No particular parameter is used a priori to modify samples previously stored in memory.
- the best-known representative of these methods is classical wave table synthesis.
- transaural or " binaural
- HRTFs Head Related Transfer Function
- transfer functions representing the disturbance of acoustic waves by the morphology of an individual, these HRTFs functions being specific to this individual.
- the sound reproduction is done in a manner adapted to the HRTFs of the listener, typically on two remote speakers (" transaural ") or from the two earpieces of a headset (" binaural ") .
- Other techniques for example “ surround “ or “multichannel” (5.1 to 10.1 or more) rather provide a restitution on more than two speakers.
- some HRTFs techniques use the separation of the frequency and position variables of the HRTFs, thus giving a set of p basic filters (corresponding to the first p eigenvalues of the covariance matrix of the HRTFs whose variables statistics are the frequencies), these filters being weighted by spatial functions (obtained by projection of the HRTFs on basic filters).
- the spatial functions can then be interpolated, as described in the document US 5500900 .
- Spatialization of many sound sources can be achieved through a multichannel implementation applied to the signal of each of the sound sources.
- the gains of the spatialization channels are applied directly to the sound samples of the signal, often described in the time domain (but possibly also in the frequency domain). These samples sound are treated by a spatialization algorithm (with application of gains that depend on the desired position), regardless of the origin of these samples.
- the proposed spatialization could apply to both natural and synthetic sounds.
- each sound source must be synthesized independently (with a temporal or frequency signal), in order to then be able to apply independent spatialization gains.
- N sound sources it is therefore necessary to perform N synthesis calculations.
- the application of the gains to sound samples, whether they come from the time or frequency domain requires at least as many multiplications as there are samples.
- M being the number of intermediate channels (surround channels for example)
- N being the number of sources.
- the so-called “ virtual loudspeakers” method makes it possible to encode the signals to be spatialized by applying them in particular gains, the decoding being done by convolution of the signals encoded by pre-calculated filters (Jérians Daniel, " Representation of acoustic fields, application to the transmission and reproduction of complex sound scenes in a multimedia context " , PhD Thesis, 2000).
- an example embodiment that is referred to in this document WO-05/069272 and in which the sources are synthesized by associating amplitudes with frequencies constituting a " sound timbre " (for example a fundamental frequency and its harmonics), provides for grouping by identical frequencies synthesis signals, with a view to spatialization subsequent operating on the frequencies.
- a sound timbre for example a fundamental frequency and its harmonics
- amplitudes of a set at 0 j , a 1 j , ..., a p j to be assigned to a same source j can be zero if the corresponding frequencies are not represented in the sound signal of this source j .
- the amplitudes a i 1 , ..., a i N relative to each frequency f i are grouped (" mixed ") to be applied, frequency by frequency, to the SPAT spatialization block for a frequency-based encoding (in binaural by example, then providing an interaural delay to apply to each source).
- the signals of the channels c 1 ,..., C k , originating from the spatialization block SPAT, are then intended to be transmitted through one or more networks, or else stored, or other, for the purpose of a subsequent restitution (preceded by where appropriate, a suitable spatialization decoding).
- the present invention improves the situation.
- the present invention proposes for this purpose to first apply a spatialization encoding, then a " pseudo-synthesis " , the term “ pseudo " aiming at the fact that the synthesis applies in particular to the encoded parameters, derived from spatialization and not to usual synthetic sound signals.
- a feature that the invention proposes is the spatial encoding of some synthesis parameters, rather than performing a spatial encoding of the signals corresponding directly to the sources.
- This spatial encoding applies more particularly to synthesis parameters which are representative of an amplitude and it advantageously consists in applying to these few synthesis parameters spatialization gains which are calculated as a function of respective desired positions of the sources. It will thus be understood that the parameters multiplied by the gains in step b) and grouped in step c) are not really sound signals, as in the general prior art described above.
- the present invention uses a mutual parametric synthesis where one of the parameters has the dimension of an amplitude. Unlike techniques of the prior art, it thus takes advantage of the advantages of such a synthesis to perform the spatialization.
- the combination of synthesis parameter sets obtained for each of the sources advantageously makes it possible to globally control the encoded blocks of mutual parametric synthesis.
- the present invention then makes it possible to spatialize simultaneously and independently of numerous synthesized sound sources from a parametric synthesis model, the spatialization gains being applied to the synthesis parameters rather than to the samples of the time or frequency domain. This embodiment thus ensures a substantial saving of the computing power required because it implies a low calculation cost.
- the technique in the sense of the invention requires fewer calculations than the usual techniques in the sense of the prior art. For example, at the surround order 1 and in two dimensions (ie three intermediate channels), the invention already allows a calculation gain for only four sources to spatialize.
- the present invention also makes it possible to reduce the number of gains to be applied. Indeed, the gains are applied to the synthesis parameters and not to the sound samples. Updating parameters such as the volume is generally less frequent than the sampling frequency of a signal, a calculation economy is thus achieved. For example, for a parameter update frequency (such as the volume in particular) of 200 Hz, a substantial saving in multiplication is achieved for a signal sampling frequency of 44100 Hz (in a ratio of about 200).
- the fields of application of the present invention may concern both the musical field (including polyphonic ringtones of mobiles), the field of multimedia (including video game sound systems), the field of virtual reality (rendering of sound scenes). , simulators (synthesis of engine noise), or others.
- new parameters p i m (i varying from 1 to N and m varying from 1 to M) are calculated by multiplying the parameters p i by the encoding gains g i m , obtained from the position of each of the sources.
- the parameters p i m are combined (by summation in the example described) to provide the parameters p g m which feed M mutual parametric synthesis blocks.
- These M blocks (referenced SYNTH (1) to SYNTH (M) on the figure 2 ) are constitutive SYNTH synthesis module, which delivers M time signals or frequency ss m (m ranging from 1 to M), obtained by synthesis from the parameters p g m .
- These signals ss m can then feed a conventional block of spatial decoding, as will be seen later with reference to the figure 3 .
- the synthesis used is an additive synthesis with application of an inverse Fourier transform (IFFT).
- IFFT inverse Fourier transform
- a set of N sources is characterized by a plurality of parameters p i, k representing the amplitude in the frequency domain of the k th frequency component for the i th source S i .
- the parameter p i, k represents the amplitude of a given frequency component k for a given source S i .
- p m i, k boy Wut m i - ⁇ p i , k , m varies from 1 to M.
- the gains g m i are predetermined for a desired position for the source S i and according to the chosen spatialization encoding.
- Each of the M time signals SS m (n) can then be supplied to a spatialization decoding block.
- the adaptation filters from the surround format to the binaural format can be applied directly in the frequency domain, thus avoiding convolution in the time domain and a corresponding calculation cost.
- each of the M frequency spectra ss m ( ⁇ ) is directly multiplied by the respective Fourier transforms of the temporal filters, noted Fg m ( ⁇ ) and Fd m ( ⁇ ) (adapted if necessary to have a coherent number of points), which is written:
- Fg m ( ⁇ ) and Fd m ( ⁇ ) adapted if necessary to have a coherent number of points
- the present invention also provides a device for generating synthetic and spatialized sounds, comprising in particular a processor, and in particular a working memory adapted to store instructions of the computer program product defined above.
Description
- La présente invention concerne un traitement audio et, plus particulièrement, une spatialisation tridimensionnelle de sources sonores synthétiques.
- Actuellement, la spatialisation d'une source sonore synthétique est réalisée souvent sans tenir compte du mode de production du son, c'est-à-dire de la manière même dont est synthétisé le son. Ainsi, de nombreux modèles, notamment paramétriques, ont été proposés pour la synthèse. Parallèlement, de nombreuses techniques de spatialisation ont été aussi proposées, sans toutefois proposer un recoupement avec la technique choisie pour une synthèse.
- On connaît, parmi les techniques de synthèse, les méthodes dites "non paramétriques". Aucun paramètre particulier n'est utilisé a priori pour modifier des échantillons précédemment stockés en mémoire. Le représentant le plus connu de ces méthodes est la synthèse par table d'onde classique.
- A ce type de technique s'opposent les méthodes de synthèse "paramétrique" qui reposent sur l'utilisation d'un modèle permettant de manipuler un nombre réduit de paramètres, comparé au nombre d'échantillons de signaux produits au sens des méthodes non paramétriques. Les techniques de synthèse paramétriques reposent typiquement sur des modèles additifs, soustractifs, source/filtre ou non-linéaires.
- Parmi ces méthodes paramétriques, on qualifie de "mutuelles" celles qui permettent de manipuler en commun des paramètres correspondant à des sources sonores différentes, pour n'utiliser alors qu'un seul processus de synthèse, néanmoins pour la totalité des sources. Dans les méthodes dites "sinusoïdales", typiquement, on construit un spectre en fréquence à partir des paramètres tels que l'amplitude et la fréquence de chaque composante partielle du spectre sonore global des sources. En effet, une implémentation par transformée de Fourier inverse, suivie d'une addition/recouvrement, assure une synthèse extrêmement efficace de plusieurs sources sonores simultanément.
- Pour ce qui concerne la spatialisation de sources sonores, différentes techniques sont connues actuellement. Certaines techniques (comme le "transaural" ou le "binaural") se basent sur la prise en compte de fonctions de transfert HRTFs (pour "Head Related Transfer Function") représentant la perturbation d'ondes acoustiques par la morphologie d'un individu, ces fonctions HRTFs étant propres à cet individu. La restitution sonore s'effectue de façon adaptée aux HRTFs de l'auditeur, typiquement sur deux haut-parleurs distants ("transaural") ou à partir des deux oreillettes d'un casque ("binaural"). D'autres techniques (par exemple l'"ambiophonique" ou le "multicanal" (5.1 à 10.1 ou plus) prévoient plutôt une restitution sur plus de deux haut-parleurs.
- Plus précisément, certaines techniques à base de HRTFs utilisent la séparation des variables "fréquence" et "position" des HRTFs, donnant ainsi un ensemble de p filtres de base (correspondant aux p premières valeurs propres de la matrice de covariance des HRTFs dont les variables statistiques sont les fréquences), ces filtres étant pondérés par des fonctions spatiales (obtenues par projection des HRTFs sur des filtres de base). Les fonctions spatiales peuvent ensuite être interpolées, comme décrit dans le document
US-5,500,900 . - La spatialisation de nombreuses sources sonores peut être réalisée grâce à une implémentation multicanale appliquée au signal de chacune des sources sonores. Les gains des canaux de spatialisation sont appliqués directement aux échantillons sonores du signal, souvent décrits dans le domaine temporel (mais possiblement aussi dans le domaine fréquentiel). Ces échantillons sonores sont traités par un algorithme de spatialisation (avec application de gains qui sont fonction de la position désirée), et ce, indépendamment de l'origine de ces échantillons. Ainsi, la spatialisation proposée pourrait s'appliquer aussi bien à des sons naturels qu'à des sons synthétiques.
- D'une part, chaque source sonore doit être synthétisée indépendamment (avec obtention d'un signal temporel ou fréquentiel), afin de pouvoir appliquer ensuite des gains de spatialisation indépendants. Pour N sources sonores, il est donc nécessaire de réaliser N calculs de synthèse.
D'autre part, l'application des gains à des échantillons sonores, qu'ils soient issus du domaine temporel ou fréquentiel, nécessite au minimum autant de multiplications qu'il y a d'échantillons. Pour un bloc de Q échantillons, il est donc nécessaire d'appliquer au moins N.M.Q gains, M étant le nombre de canaux intermédiaires (canaux ambiophoniques par exemple) et N étant le nombre de sources.
Ainsi, cette technique nécessite un coût de calcul élevé dans le cas de la spatialisation de nombreuses sources sonores. - Parmi les techniques ambiophoniques, la méthode dite des "haut-parleurs virtuels" permet d'encoder les signaux à spatialiser en leur appliquant en particulier des gains, le décodage étant réalisé par convolution des signaux encodés par des filtres pré-calculés (Jérôme Daniel, "Représentation de champs acoustiques, application à la transmission et à la reproduction de scènes sonores complexes dans un contexte multimédia", Thèse de doctorat, 2000).
- Une technique très prometteuse, combinant synthèse et spatialisation, a été présentée dans le document
WO-05/069272 - Elle consiste à déterminer des amplitudes à affecter à des signaux représentant des sources sonores pour définir, à la fois, l'intensité sonore (par exemple un "volume") d'une source à synthétiser et un gain de spatialisation de cette source. Ce document divulgue notamment une spatialisation binaurale avec prise en compte des retards et des gains (ou "fonctions spatiales") et, en particulier, un mixage des sources synthétisées dans la partie encodage de spatialisation.
- Plus particulièrement encore, un exemple de réalisation qui est visé dans ce document
WO-05/069272 - Cet exemple de réalisation est illustré sur la
figure 1 . Dans un bloc de synthèse SYNTH (représenté en traits pointillés), on affecte à des fréquences f0, f1, f2, ..., fp de chaque source à synthétiser S1, ..., SN des amplitudes respectives a0 1, a1 1, ..., ap 1, ..., ai j, ..., a0 N, a1 N, ..., ap N, où, dans la notation générale ai j, j est un indice de source compris entre 1 et N et i est un indice de fréquence compris entre 0 et p. Bien entendu, certaines amplitudes d'un jeu a0 j, a1 j, ..., ap j à affecter à une même source j peuvent être nulles si les fréquences correspondantes ne sont pas représentées dans le timbre sonore de cette source j.
Les amplitudes ai 1, ..., ai N relatives à chaque fréquence fi sont regroupées ("mixées") pour être appliquées, fréquence par fréquence, au bloc de spatialisation SPAT pour un encodage opérant sur les fréquences (en binaural par exemple, en prévoyant alors un retard interaural à appliquer à chaque source). Les signaux des canaux c1, ..., ck, issus du bloc de spatialisation SPAT, sont ensuite destinés à être transmis à travers un ou plusieurs réseaux, ou encore stockés, ou autres, en vue d'une restitution ultérieure (précédée le cas échéant d'un décodage de spatialisation adapté). - Cette technique, quoique très prometteuse, mérite encore quelques optimisations.
- De manière générale, les procédés actuels requièrent des puissances de calcul notables pour spatialiser de nombreuses sources sonores synthétisées.
- La présente invention vient améliorer la situation.
- elle propose à cet effet un procédé pour synthétiser et spatialiser conjointement une pluralité de sources sonores dans des positions associées de l'espace, le procédé comportant :
- a) une étape d'affectation à chaque source d'au moins un paramètre de synthèse pi, représentatif d'une amplitude d'au moins une composante fréquentielle de la source,
- b) une étape de spatialisation mettant en oeuvre un encodage en une pluralité de canaux, dans laquelle on duplique chaque paramètre d'amplitude pour le multiplier par un gain de spatialisation, chaque gain de spatialisation étant déterminé, d'une part, pour un canal d'encodage et, d'autre part, pour une source à spatialiser,
- c) une étape de regroupement des paramètres multipliés par les gains, dans des canaux respectifs, en appliquant une somme desdits paramètres multipliés sur toutes les sources pour chaque canal, et
- d) une étape de synthèse paramétrique appliquée à chacun des canaux.
- Il est aussi proposé un programme d'ordinateur selon la revendication 6 et un module selon la revendication 7.
- Ainsi, la présente invention propose à cet effet d'appliquer d'abord un encodage en spatialisation, puis une "pseudo-synthèse", le terme "pseudo" visant le fait que la synthèse s'applique en particulier aux paramètres encodés, issus de la spatialisation et non à des signaux sonores synthétiques habituels.
- En effet, une particularité que propose l'invention est l'encodage spatial de quelques paramètres de synthèse, plutôt que de réaliser un encodage spatial des signaux correspondant directement aux sources. Cet encodage spatial s'applique plus particulièrement à des paramètres de synthèse qui sont représentatifs d'une amplitude et il consiste avantageusement à appliquer à ces quelques paramètres de synthèse des gains de spatialisation qui sont calculés en fonction de positions souhaitées respectives des sources. On comprendra ainsi que les paramètres multipliés par les gains à l'étape b) et regroupés à l'étape c) ne sont pas réellement des signaux sonores, comme au sens de l'art antérieur général décrit ci-avant.
- La présente invention utilise alors une synthèse paramétrique mutuelle où l'un des paramètres possède la dimension d'une amplitude. Contrairement aux techniques de l'art antérieur, elle tire ainsi partie des avantages d'une telle synthèse pour effectuer la spatialisation. La combinaison des jeux de paramètres de synthèse obtenus pour chacune des sources permet avantageusement de contrôler globalement les blocs encodés de synthèse paramétrique mutuelle.
- La présente invention permet alors de spatialiser simultanément et indépendamment de nombreuses sources sonores synthétisées à partir d'un modèle de synthèse paramétrique, les gains de spatialisation étant appliqués aux paramètres de synthèse plutôt qu'aux échantillons du domaine temporel ou fréquentiel. Cette réalisation assure alors une économie substantielle de la puissance de calcul requise car elle implique un faible coût de calcul.
- Selon l'un des avantages que procure l'invention, comme le nombre d'étapes dans la synthèse est rendu indépendant par rapport au nombre de sources, une seule synthèse par canal intermédiaire peut être appliquée. Quel que soit le nombre de sources sonores, seul un nombre constant M de calculs de synthèse est prévu. Typiquement, dès lors que le nombre de sources N devient plus grand que le nombre M de canaux intermédiaires, la technique au sens de l'invention nécessite moins de calculs que les techniques habituelles au sens de l'art antérieur. Par exemple, à l'ordre ambiophonique 1 et en deux dimensions (soit trois canaux intermédiaires), l'invention permet déjà un gain de calcul pour seulement quatre sources à spatialiser.
- La présente invention permet aussi de diminuer le nombre de gains à appliquer. En effet, les gains sont appliqués aux paramètres de synthèse et non aux échantillons sonores. La mise à jour des paramètres tels que le volume étant généralement moins fréquente que la fréquence d'échantillonnage d'un signal, une économie de calcul est ainsi réalisée. Par exemple, pour une fréquence de mise à jour de paramètres (tel que le volume notamment) de 200Hz, on réalise une économie de multiplications substantielle pour une fréquence d'échantillonnage du signal de 44100Hz (selon un rapport d'environ 200).
- Les champs d'application de la présente invention peuvent concerner aussi bien le domaine musical (notamment les sonneries polyphoniques de mobiles), le domaine du multimédia (notamment les sonorisations de jeux vidéo), le domaine de la réalité virtuelle (rendu de scènes sonores), les simulateurs (synthèse de bruits moteurs), ou autres.
- D'autres caractéristiques et avantages de l'invention apparaîtront à l'examen de la description détaillée ci-après, et des dessins annexés sur lesquels, outre la
figure 1 relative à l'art antérieur et décrite ci avant : - la
figure 2 illustre le traitement général de spatialisation et synthèse prévu dans un procédé au sens de l'invention, - la
figure 3 illustre un traitement des signaux spatialisés et synthétisés, pour un décodage spatial en vue d'une restitution, - la
figure 4 illustre un mode de réalisation particulier dans lequel on affecte plusieurs paramètres d'amplitude à chaque source, chaque paramètre étant associé à une composante fréquentielle, - la
figure 5 illustre les étapes d'un procédé au sens de l'invention, et peut correspondre à un organigramme d'un programme d'ordinateur pour la mise en oeuvre de l'invention. - En référence à la
figure 2 , on affecte au moins un paramètre pi, représentatif d'une amplitude, à une source Si parmi une pluralité de sources S1, ..., SN à synthétiser et spatialiser (i étant compris entre 1 et N). On duplique chaque paramètre pi en autant de canaux de spatialisation prévus dans le bloc de spatialisation SPAT. Dans l'exemple représenté où l'on prévoit M canaux d'encodage pour la spatialisation, on duplique M fois chaque paramètre pi pour appliquer des gains de spatialisation respectifs gi 1, gi M (i étant, pour rappel, un indice de source Si).
On obtient alors N.M paramètres multipliés chacun par un gain : p1g1 1, ..., P1g1 M, ..., pigi 1, ..., pigi M, ..., pNgN 1, ..., pNgN M.
On regroupe ensuite ces paramètres multipliés (référence R de lafigure 2 ) par canaux de spatialisation (M canaux en tout), soit : - p1g1 1, ..., pigi 1, ..., pNgN 1 regroupés dans un premier canal de spatialisation pg 1,
et ce, jusqu'à : - p1g1 M, ..., pigi M, ..., pNgN M regroupés dans un Mième canal de spatialisation pg M,
- Ainsi, de nouveaux paramètres pi m (i variant de 1 à N et m variant de 1 à M) sont calculés par multiplication des paramètres pi par les gains d'encodage gi m, obtenus à partir de la position de chacune des sources. Les paramètres pi m sont combinés (par sommation dans l'exemple décrit) afin de fournir les paramètres pg m qui alimentent M blocs de synthèse paramétrique mutuelle. Ces M blocs (référencés SYNTH(1) à SYNTH(M) sur la
figure 2 ) sont constitutifs du module de synthèse SYNTH, lequel délivre M signaux temporels ou fréquentiels ssm (m variant de 1 à M), obtenus par synthèse à partir des paramètres pg m. Ces signaux ssm peuvent ensuite alimenter un bloc classique de décodage spatial, comme on le verra plus loin en référence à lafigure 3 . - Dans un mode de réalisation particulier, la synthèse utilisée est une synthèse additive avec application d'une transformée de Fourier inverse (IFFT).
- A cet effet, un ensemble de N sources est caractérisé par une pluralité de paramètres pi,k représentant l'amplitude dans le domaine fréquentiel de la kième composante fréquentielle pour la iième source Si.
Le signal temporel si(n) qui correspondrait à cette source Si, s'il était synthétisé indépendamment des autres sources, serait donné par :
Il est possible de réaliser la synthèse additive dans le domaine fréquentiel à partir des seuls paramètres pi,k, fi,k et ϕi,k donnés, en utilisant par exemple la technique exposée dans le documentFR-2 679 689
Le paramètre pi,k représente l'amplitude d'une composante fréquentielle k donnée pour une source Si donnée. On en déduit donc les paramètres pm i,k pour chaque source et chacun des M canaux grâce à la relation : - Dans le cas d'un encodage ambiophonique par exemple, ces gains correspondent aux harmoniques sphériques et peuvent s'écrire gm i = Ym(θi,δi), où :
- Ym est un harmonique sphérique d'ordre m,
- θi et δi sont respectivement l'azimut et le site souhaités pour la source Si.
- Les paramètres pm i,k sont ensuite combinés fréquence par fréquence, de manière à obtenir un seul paramètre global :
-
-
- Cette réalisation est illustrée sur la
figure 4 . On affecte K paramètres d'amplitude pi,k à chaque source Si. L'indice i, de source, est compris entre 1 et N. L'indice k, de fréquence, est compris entre 1 et K. Pour chaque source Si, on duplique ces K paramètres, M fois, pour être multiplié chacun par un gain de spatialisation gi m. L'indice m, de canal d'encodage de spatialisation, est compris entre 1 et M. - Dans chaque canal m, on regroupe, fréquence par fréquence, les K résultats des produits gi m.pi,k, selon l'expression donnée ci-avant :
où k varie de 1 à K dans chaque canal m, et m varie globalement de 1 à M.
On comprendra ainsi que dans chaque canal m, il est prévu des sous-canaux pm g,k associés chacun à une composante fréquentielle k, l'indice g désignant, pour rappel, le terme "global".
Le traitement se poursuit alors en multipliant le paramètre global de chaque sous-canal pm g,k associé à une fréquence fk par une enveloppe spectrale envk(ω) centrée en cette fréquence fk, et ce, pour tous les K sous-canaux (k compris entre 1 et K), et globalement, pour tous les M canaux (m étant compris entre 1 et M). Ensuite, les K sous-canaux sont sommés dans chaque canal m, conformément à la relation ci-après : -
-
- Chacun des M signaux temporels SSm(n) peut ensuite être fourni à un bloc de décodage de spatialisation.
- A cet effet, il peut être prévu par exemple une paire de filtres adaptés Fgm(n), Fdm(n) à appliquer, par convolution, à chaque signal SSm(n), comme représenté sur la
figure 3 , pour une adaptation d'un encodage ambiophonique vers une restitution en binaural à deux voies gauche et droite. Ces filtres pour une telle transition ambiophonique/binaural peuvent être obtenus par application de la technique des haut-parleurs virtuels citée ci-avant. - Le traitement réalisé par le bloc DECOD de décodage spatial de la
figure 3 peut être du type : - On décrit néanmoins une variante plus avantageuse ci-après. Les filtres d'adaptation du format ambiophonique vers le format binaural peuvent être appliqués directement dans le domaine fréquentiel, évitant ainsi une convolution dans le domaine temporel et un coût de calcul correspondant.
- A cet effet, chacun des M spectres en fréquence ssm(ω) est directement multiplié par les transformées de Fourier respectives des filtres temporels, notées Fgm(ω) et Fdm(ω) (adaptées le cas échéant pour avoir un nombre de points cohérent), ce qui s'écrit :
- La présente invention vise aussi un produit programme d'ordinateur, qu'il soit stocké dans une mémoire d'une unité centrale ou d'un terminal, ou sur un support amovible propre à coopérer avec un lecteur de cette unité centrale (CD-ROM, disquette ou autre), ou encore téléchargeable via un réseau de télécommunications. Ce programme comporte en particulier des instructions pour la mise en oeuvre du procédé décrit ci-avant et dont un organigramme peut être illustré à titre d'exemple sur la
figure 5 , résumant les étapes d'un tel procédé. - L'étape a) vise l'affectation des paramètres représentatifs d'une amplitude à chaque source Si. Dans l'exemple représenté, on affecte un paramètre pi,k par composante fréquentielle fk comme décrit ci-avant.
- L'étape b) vise la duplication de ces paramètres et leur multiplication par les gains gi m des canaux d'encodage.
- L'étape c) vise le regroupement des produits obtenus à l'étape b), avec en particulier le calcul de leur somme sur toutes les sources Si.
- L'étape d) vise la synthèse paramétrique avec multiplication par une enveloppe spectrale envk comme décrit ci-avant, suivi d'un regroupement des sous-canaux par application, dans chaque canal, d'une somme sur toutes les composantes fréquentielles (d'indice k allant de 1 à K).
- L'étape e) vise un décodage de spatialisation des signaux ssm issus des canaux respectifs, synthétisés, spatialisés et représentés dans le domaine fréquentiel, pour une restitution sur deux haut-parleurs par exemple au format binaural.
- La présente invention vise aussi un dispositif de génération de sons synthétiques et spatialisés, comprenant notamment un processeur, et, en particulier, une mémoire de travail propre à stocker des instructions du produit programme d'ordinateur défini ci-avant.
- Bien entendu, la présente invention ne se limite pas à la forme de réalisation décrite ci-avant à titre d'exemple ; elle s'étend à d'autres variantes.
- Ainsi, il a été décrit ci-avant à titre d'exemple un encodage de spatialisation en format ambiophonique réalisé par le module SPAT de la
figure 2 , suivi d'une adaptation du format ambiophonique vers le format binaural. En variante, il peut être prévu par exemple d'appliquer directement un encodage vers le format binaural. - Par ailleurs, la multiplication par des enveloppes spectrales de la synthèse paramétrique est décrite ci-avant à titre d'exemple, d'autres modèles pouvant être prévus en variante.
Dans ce cas, les valeurs de k et k' sont égales et la relation précédente s'écrit simplement:
Claims (7)
- Procédé pour synthétiser et spatialiser conjointement une pluralité de sources sonores dans des positions associées de l'espace, comportant :a) une étape d'affectation à chaque source d'au moins un paramètre (pi) représentatif d'une amplitude d'au moins une composant frequentielle de la source,b) une étape de spatialisation mettant en oeuvre un encodage en une pluralité de canaux, dans laquelle on duplique chaque paramètre d'amplitude (p1) pour le multiplier à un gain de spatialisation (gi m), chaque gain de spatialisation étant déterminé, d'une part, pour un canal d'encodage (pg m) et, d'autre part, pour une source à spatialiser (Si),c) une étape de regroupement (R) des paramètres (pi m) multipliés par les gains, dans des canaux respectifs (pg 1, ..., pg M), en appliquant une somme desdits paramètres multipliés (pi m) sur toutes les sources (Si) pour chaque canal (pg m), etd) une étape de synthèse paramétrique (SYNTH(1), ..., SYNTH(M)) appliquée à chacun des canaux (pg m).
- Procédé selon la revendication 1, dans lequel :a) on affecte à chaque source (Si) une pluralité de paramètres (pi,k) représentatifs, chacun, d'une d'amplitude d'une composante fréquentielle (fk),b) on duplique chaque paramètre d'amplitude (pi,k) représentatif d'une composante fréquentielle (fk) pour le multiplier à un gain de spatialisation (gi m), chaque gain de spatialisation étant déterminé, d'une part, pour un canal d'encodage (pg m) et, d'autre part, pour une source à spatialiser (Si),c) dans chaque canal, on regroupe, composante fréquentielle par composante fréquentielle, les produits des paramètres (pi,k) par les gains (gi m), en sous-canaux (pg,k m) associés chacun à une composante fréquentielle (fk).
- Procédé selon la revendication 2, dans lequel la synthèse est menée, dans chaque canal, en :d1) multipliant la sortie de chaque sous-canal associé à une composante fréquentielle (fk) par une enveloppe spectrale (envk) centrée sur une fréquence correspondant à ladite composante fréquentielle (fk),d2) et en regroupant, par une somme sur les composantes fréquentielles (fk), les produits résultant de l'opération d1),pour obtenir, suite à l'opération d2), un signal (ssm) issu de chaque canal, encodé en spatialisation et synthétisé.
- Procédé selon l'une des revendications précédentes, dans lequel la spatialisation est menée par encodage ambiophonique et les paramètres représentatifs d'une amplitude qui sont affectés aux sources correspondent à des amplitudes d'harmoniques sphériques (Ym).
- Procédé selon la revendication 4, prise en combinaison avec la revendication 3, dans lequel, pour passer d'un encodage ambiophonique à un décodage en vue d'une restitution en spatialisation binaurale, on applique un traitement dans le domaine fréquentiel directement aux résultats des produits issus des canaux respectifs après l'opération d2).
- Produit programme d'ordinateur, stocké dans une mémoire d'une unité centrale ou d'un terminal, et/ou sur un support amovible propre à coopérer avec un lecteur de ladite unité centrale, et/ou téléchargeable via un réseau de télécommunications, caractérisé en ce qu'il comporte des instructions pour la mise en oeuvre du procédé selon l'une des revendications 1 à 5.
- Module de génération de sons synthétiques spatialisés, comprenant notamment un processeur, caractérisé en ce qu'il comporte en outre une mémoire de travail stockant des instructions du produit programme d'ordinateur selon la revendication 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PL07731685T PL1994526T3 (pl) | 2006-03-13 | 2007-03-01 | Połączona synteza i uprzestrzennienie dźwięków |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0602170 | 2006-03-13 | ||
PCT/FR2007/050868 WO2007104877A1 (fr) | 2006-03-13 | 2007-03-01 | Synthese et spatialisation sonores conjointes |
Publications (2)
Publication Number | Publication Date |
---|---|
EP1994526A1 EP1994526A1 (fr) | 2008-11-26 |
EP1994526B1 true EP1994526B1 (fr) | 2009-10-28 |
Family
ID=37400911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP07731685A Active EP1994526B1 (fr) | 2006-03-13 | 2007-03-01 | Synthese et spatialisation sonores conjointes |
Country Status (8)
Country | Link |
---|---|
US (1) | US8059824B2 (fr) |
EP (1) | EP1994526B1 (fr) |
JP (1) | JP5051782B2 (fr) |
AT (1) | ATE447224T1 (fr) |
DE (1) | DE602007002993D1 (fr) |
ES (1) | ES2335246T3 (fr) |
PL (1) | PL1994526T3 (fr) |
WO (1) | WO2007104877A1 (fr) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8786852B2 (en) | 2009-12-02 | 2014-07-22 | Lawrence Livermore National Security, Llc | Nanoscale array structures suitable for surface enhanced raman scattering and methods related thereto |
US9395304B2 (en) | 2012-03-01 | 2016-07-19 | Lawrence Livermore National Security, Llc | Nanoscale structures on optical fiber for surface enhanced Raman scattering and methods related thereto |
US9788135B2 (en) | 2013-12-04 | 2017-10-10 | The United States Of America As Represented By The Secretary Of The Air Force | Efficient personalization of head-related transfer functions for improved virtual spatial audio |
JP2019530312A (ja) * | 2016-10-04 | 2019-10-17 | オムニオ、サウンド、リミテッドOmnio Sound Limited | ステレオ展開技術 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2679689B1 (fr) * | 1991-07-26 | 1994-02-25 | Etat Francais | Procede de synthese de sons. |
JPH08502867A (ja) | 1992-10-29 | 1996-03-26 | ウィスコンシン アラムニ リサーチ ファンデーション | 指向性音を作る方法及び装置 |
US5596644A (en) | 1994-10-27 | 1997-01-21 | Aureal Semiconductor Inc. | Method and apparatus for efficient presentation of high-quality three-dimensional audio |
FR2782228B1 (fr) | 1998-08-05 | 2001-05-25 | Ct Scient Tech Batiment Cstb | Dispositif de simulation sonore et procede pour realiser un tel dispositif |
FR2847376B1 (fr) * | 2002-11-19 | 2005-02-04 | France Telecom | Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede |
FI118247B (fi) * | 2003-02-26 | 2007-08-31 | Fraunhofer Ges Forschung | Menetelmä luonnollisen tai modifioidun tilavaikutelman aikaansaamiseksi monikanavakuuntelussa |
FR2851879A1 (fr) * | 2003-02-27 | 2004-09-03 | France Telecom | Procede de traitement de donnees sonores compressees, pour spatialisation. |
US20070160216A1 (en) * | 2003-12-15 | 2007-07-12 | France Telecom | Acoustic synthesis and spatialization method |
SE0400998D0 (sv) * | 2004-04-16 | 2004-04-16 | Cooding Technologies Sweden Ab | Method for representing multi-channel audio signals |
US8204261B2 (en) * | 2004-10-20 | 2012-06-19 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Diffuse sound shaping for BCC schemes and the like |
ES2396072T3 (es) * | 2006-07-07 | 2013-02-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aparato para combinar múltiples fuentes de audio paramétricamente codificadas |
US9185507B2 (en) * | 2007-06-08 | 2015-11-10 | Dolby Laboratories Licensing Corporation | Hybrid derivation of surround sound audio channels by controllably combining ambience and matrix-decoded signal components |
-
2007
- 2007-03-01 PL PL07731685T patent/PL1994526T3/pl unknown
- 2007-03-01 US US12/225,097 patent/US8059824B2/en active Active
- 2007-03-01 JP JP2008558857A patent/JP5051782B2/ja active Active
- 2007-03-01 ES ES07731685T patent/ES2335246T3/es active Active
- 2007-03-01 AT AT07731685T patent/ATE447224T1/de not_active IP Right Cessation
- 2007-03-01 WO PCT/FR2007/050868 patent/WO2007104877A1/fr active Application Filing
- 2007-03-01 EP EP07731685A patent/EP1994526B1/fr active Active
- 2007-03-01 DE DE602007002993T patent/DE602007002993D1/de active Active
Also Published As
Publication number | Publication date |
---|---|
EP1994526A1 (fr) | 2008-11-26 |
WO2007104877A1 (fr) | 2007-09-20 |
ES2335246T3 (es) | 2010-03-23 |
JP2009530883A (ja) | 2009-08-27 |
DE602007002993D1 (de) | 2009-12-10 |
ATE447224T1 (de) | 2009-11-15 |
US20090097663A1 (en) | 2009-04-16 |
PL1994526T3 (pl) | 2010-03-31 |
JP5051782B2 (ja) | 2012-10-17 |
US8059824B2 (en) | 2011-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1600042B1 (fr) | Procede de traitement de donnees sonores compressees, pour spatialisation | |
EP2000002B1 (fr) | Procede et dispositif de spatialisation sonore binaurale efficace dans le domaine transforme | |
EP1992198B1 (fr) | Optimisation d'une spatialisation sonore binaurale a partir d'un encodage multicanal | |
EP1999998B1 (fr) | Procede de synthese binaurale prenant en compte un effet de salle | |
US8175280B2 (en) | Generation of spatial downmixes from parametric representations of multi channel signals | |
EP2042001B1 (fr) | Spatialisation binaurale de donnees sonores encodees en compression | |
EP1886535B1 (fr) | Procede pour produire une pluralite de signaux temporels | |
EP1695335A1 (fr) | Procede de synthese et de spatialisation sonores | |
US20220408188A1 (en) | Spectrally orthogonal audio component processing | |
EP1994526B1 (fr) | Synthese et spatialisation sonores conjointes | |
EP3400599B1 (fr) | Encodeur ambisonique ameliore d'une source sonore a pluralite de reflexions | |
EP3025514B1 (fr) | Spatialisation sonore avec effet de salle | |
KR102660704B1 (ko) | 스펙트럼적 직교 오디오 성분 처리 | |
KR20240060678A (ko) | 스펙트럼적 직교 오디오 성분 처리 | |
WO2006097633A1 (fr) | Procede et systeme de spatialisation d'un signal sonore en fonction des qualites intrinseques de ce dernier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
17P | Request for examination filed |
Effective date: 20080828 |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC MT NL PL PT RO SE SI SK TR |
|
GRAP | Despatch of communication of intention to grant a patent |
Free format text: ORIGINAL CODE: EPIDOSNIGR1 |
|
GRAS | Grant fee paid |
Free format text: ORIGINAL CODE: EPIDOSNIGR3 |
|
17Q | First examination report despatched |
Effective date: 20090616 |
|
GRAA | (expected) grant |
Free format text: ORIGINAL CODE: 0009210 |
|
AK | Designated contracting states |
Kind code of ref document: B1 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC MT NL PL PT RO SE SI SK TR |
|
REG | Reference to a national code |
Ref country code: GB Ref legal event code: FG4D Free format text: NOT ENGLISH |
|
REG | Reference to a national code |
Ref country code: CH Ref legal event code: EP |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: FG4D |
|
REF | Corresponds to: |
Ref document number: 602007002993 Country of ref document: DE Date of ref document: 20091210 Kind code of ref document: P |
|
REG | Reference to a national code |
Ref country code: ES Ref legal event code: FG2A Ref document number: 2335246 Country of ref document: ES Kind code of ref document: T3 |
|
LTIE | Lt: invalidation of european patent or patent extension |
Effective date: 20091028 |
|
REG | Reference to a national code |
Ref country code: PL Ref legal event code: T3 |
|
NLV1 | Nl: lapsed or annulled due to failure to fulfill the requirements of art. 29p and 29m of the patents act | ||
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 Ref country code: LT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 Ref country code: PT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20100301 Ref country code: IS Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20100228 Ref country code: FI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: FD4D |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: LV Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 Ref country code: SI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 Ref country code: CY Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: AT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: RO Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 Ref country code: BG Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20100128 Ref country code: EE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 Ref country code: IE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 Ref country code: DK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: CZ Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 Ref country code: SK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 |
|
PLBE | No opposition filed within time limit |
Free format text: ORIGINAL CODE: 0009261 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT |
|
BERE | Be: lapsed |
Owner name: FRANCE TELECOM Effective date: 20100331 |
|
26N | No opposition filed |
Effective date: 20100729 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: MC Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20100331 Ref country code: GR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20100129 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: BE Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20100331 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: IT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: MT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 |
|
REG | Reference to a national code |
Ref country code: CH Ref legal event code: PL |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: LI Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20110331 Ref country code: CH Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20110331 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: HU Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20100429 Ref country code: NL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 Ref country code: LU Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20100301 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: TR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20091028 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 9 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 10 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 11 |
|
REG | Reference to a national code |
Ref country code: FR Ref legal event code: PLFP Year of fee payment: 12 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: FR Payment date: 20230222 Year of fee payment: 17 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: PL Payment date: 20230224 Year of fee payment: 17 Ref country code: GB Payment date: 20230221 Year of fee payment: 17 Ref country code: DE Payment date: 20230221 Year of fee payment: 17 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: ES Payment date: 20230403 Year of fee payment: 17 |