EP1994526B1 - Synthese et spatialisation sonores conjointes - Google Patents

Synthese et spatialisation sonores conjointes Download PDF

Info

Publication number
EP1994526B1
EP1994526B1 EP07731685A EP07731685A EP1994526B1 EP 1994526 B1 EP1994526 B1 EP 1994526B1 EP 07731685 A EP07731685 A EP 07731685A EP 07731685 A EP07731685 A EP 07731685A EP 1994526 B1 EP1994526 B1 EP 1994526B1
Authority
EP
European Patent Office
Prior art keywords
spatialization
parameters
source
channel
frequency component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
EP07731685A
Other languages
German (de)
English (en)
Other versions
EP1994526A1 (fr
Inventor
Grégory PALLONE
Marc Emerit
David Virette
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Priority to PL07731685T priority Critical patent/PL1994526T3/pl
Publication of EP1994526A1 publication Critical patent/EP1994526A1/fr
Application granted granted Critical
Publication of EP1994526B1 publication Critical patent/EP1994526B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/295Spatial effects, musical uses of multiple audio channels, e.g. stereo
    • G10H2210/301Soundscape or sound field simulation, reproduction or control for musical purposes, e.g. surround or 3D sound; Granular synthesis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's

Definitions

  • the present invention relates to audio processing and, more particularly, to three-dimensional spatialization of synthetic sound sources.
  • non- parametric methods are known .
  • No particular parameter is used a priori to modify samples previously stored in memory.
  • the best-known representative of these methods is classical wave table synthesis.
  • transaural or " binaural
  • HRTFs Head Related Transfer Function
  • transfer functions representing the disturbance of acoustic waves by the morphology of an individual, these HRTFs functions being specific to this individual.
  • the sound reproduction is done in a manner adapted to the HRTFs of the listener, typically on two remote speakers (" transaural ") or from the two earpieces of a headset (" binaural ") .
  • Other techniques for example “ surround “ or “multichannel” (5.1 to 10.1 or more) rather provide a restitution on more than two speakers.
  • some HRTFs techniques use the separation of the frequency and position variables of the HRTFs, thus giving a set of p basic filters (corresponding to the first p eigenvalues of the covariance matrix of the HRTFs whose variables statistics are the frequencies), these filters being weighted by spatial functions (obtained by projection of the HRTFs on basic filters).
  • the spatial functions can then be interpolated, as described in the document US 5500900 .
  • Spatialization of many sound sources can be achieved through a multichannel implementation applied to the signal of each of the sound sources.
  • the gains of the spatialization channels are applied directly to the sound samples of the signal, often described in the time domain (but possibly also in the frequency domain). These samples sound are treated by a spatialization algorithm (with application of gains that depend on the desired position), regardless of the origin of these samples.
  • the proposed spatialization could apply to both natural and synthetic sounds.
  • each sound source must be synthesized independently (with a temporal or frequency signal), in order to then be able to apply independent spatialization gains.
  • N sound sources it is therefore necessary to perform N synthesis calculations.
  • the application of the gains to sound samples, whether they come from the time or frequency domain requires at least as many multiplications as there are samples.
  • M being the number of intermediate channels (surround channels for example)
  • N being the number of sources.
  • the so-called “ virtual loudspeakers” method makes it possible to encode the signals to be spatialized by applying them in particular gains, the decoding being done by convolution of the signals encoded by pre-calculated filters (Jérians Daniel, " Representation of acoustic fields, application to the transmission and reproduction of complex sound scenes in a multimedia context " , PhD Thesis, 2000).
  • an example embodiment that is referred to in this document WO-05/069272 and in which the sources are synthesized by associating amplitudes with frequencies constituting a " sound timbre " (for example a fundamental frequency and its harmonics), provides for grouping by identical frequencies synthesis signals, with a view to spatialization subsequent operating on the frequencies.
  • a sound timbre for example a fundamental frequency and its harmonics
  • amplitudes of a set at 0 j , a 1 j , ..., a p j to be assigned to a same source j can be zero if the corresponding frequencies are not represented in the sound signal of this source j .
  • the amplitudes a i 1 , ..., a i N relative to each frequency f i are grouped (" mixed ") to be applied, frequency by frequency, to the SPAT spatialization block for a frequency-based encoding (in binaural by example, then providing an interaural delay to apply to each source).
  • the signals of the channels c 1 ,..., C k , originating from the spatialization block SPAT, are then intended to be transmitted through one or more networks, or else stored, or other, for the purpose of a subsequent restitution (preceded by where appropriate, a suitable spatialization decoding).
  • the present invention improves the situation.
  • the present invention proposes for this purpose to first apply a spatialization encoding, then a " pseudo-synthesis " , the term “ pseudo " aiming at the fact that the synthesis applies in particular to the encoded parameters, derived from spatialization and not to usual synthetic sound signals.
  • a feature that the invention proposes is the spatial encoding of some synthesis parameters, rather than performing a spatial encoding of the signals corresponding directly to the sources.
  • This spatial encoding applies more particularly to synthesis parameters which are representative of an amplitude and it advantageously consists in applying to these few synthesis parameters spatialization gains which are calculated as a function of respective desired positions of the sources. It will thus be understood that the parameters multiplied by the gains in step b) and grouped in step c) are not really sound signals, as in the general prior art described above.
  • the present invention uses a mutual parametric synthesis where one of the parameters has the dimension of an amplitude. Unlike techniques of the prior art, it thus takes advantage of the advantages of such a synthesis to perform the spatialization.
  • the combination of synthesis parameter sets obtained for each of the sources advantageously makes it possible to globally control the encoded blocks of mutual parametric synthesis.
  • the present invention then makes it possible to spatialize simultaneously and independently of numerous synthesized sound sources from a parametric synthesis model, the spatialization gains being applied to the synthesis parameters rather than to the samples of the time or frequency domain. This embodiment thus ensures a substantial saving of the computing power required because it implies a low calculation cost.
  • the technique in the sense of the invention requires fewer calculations than the usual techniques in the sense of the prior art. For example, at the surround order 1 and in two dimensions (ie three intermediate channels), the invention already allows a calculation gain for only four sources to spatialize.
  • the present invention also makes it possible to reduce the number of gains to be applied. Indeed, the gains are applied to the synthesis parameters and not to the sound samples. Updating parameters such as the volume is generally less frequent than the sampling frequency of a signal, a calculation economy is thus achieved. For example, for a parameter update frequency (such as the volume in particular) of 200 Hz, a substantial saving in multiplication is achieved for a signal sampling frequency of 44100 Hz (in a ratio of about 200).
  • the fields of application of the present invention may concern both the musical field (including polyphonic ringtones of mobiles), the field of multimedia (including video game sound systems), the field of virtual reality (rendering of sound scenes). , simulators (synthesis of engine noise), or others.
  • new parameters p i m (i varying from 1 to N and m varying from 1 to M) are calculated by multiplying the parameters p i by the encoding gains g i m , obtained from the position of each of the sources.
  • the parameters p i m are combined (by summation in the example described) to provide the parameters p g m which feed M mutual parametric synthesis blocks.
  • These M blocks (referenced SYNTH (1) to SYNTH (M) on the figure 2 ) are constitutive SYNTH synthesis module, which delivers M time signals or frequency ss m (m ranging from 1 to M), obtained by synthesis from the parameters p g m .
  • These signals ss m can then feed a conventional block of spatial decoding, as will be seen later with reference to the figure 3 .
  • the synthesis used is an additive synthesis with application of an inverse Fourier transform (IFFT).
  • IFFT inverse Fourier transform
  • a set of N sources is characterized by a plurality of parameters p i, k representing the amplitude in the frequency domain of the k th frequency component for the i th source S i .
  • the parameter p i, k represents the amplitude of a given frequency component k for a given source S i .
  • p m i, k boy Wut m i - ⁇ p i , k , m varies from 1 to M.
  • the gains g m i are predetermined for a desired position for the source S i and according to the chosen spatialization encoding.
  • Each of the M time signals SS m (n) can then be supplied to a spatialization decoding block.
  • the adaptation filters from the surround format to the binaural format can be applied directly in the frequency domain, thus avoiding convolution in the time domain and a corresponding calculation cost.
  • each of the M frequency spectra ss m ( ⁇ ) is directly multiplied by the respective Fourier transforms of the temporal filters, noted Fg m ( ⁇ ) and Fd m ( ⁇ ) (adapted if necessary to have a coherent number of points), which is written:
  • Fg m ( ⁇ ) and Fd m ( ⁇ ) adapted if necessary to have a coherent number of points
  • the present invention also provides a device for generating synthetic and spatialized sounds, comprising in particular a processor, and in particular a working memory adapted to store instructions of the computer program product defined above.

Description

  • La présente invention concerne un traitement audio et, plus particulièrement, une spatialisation tridimensionnelle de sources sonores synthétiques.
  • Actuellement, la spatialisation d'une source sonore synthétique est réalisée souvent sans tenir compte du mode de production du son, c'est-à-dire de la manière même dont est synthétisé le son. Ainsi, de nombreux modèles, notamment paramétriques, ont été proposés pour la synthèse. Parallèlement, de nombreuses techniques de spatialisation ont été aussi proposées, sans toutefois proposer un recoupement avec la technique choisie pour une synthèse.
  • On connaît, parmi les techniques de synthèse, les méthodes dites "non paramétriques". Aucun paramètre particulier n'est utilisé a priori pour modifier des échantillons précédemment stockés en mémoire. Le représentant le plus connu de ces méthodes est la synthèse par table d'onde classique.
  • A ce type de technique s'opposent les méthodes de synthèse "paramétrique" qui reposent sur l'utilisation d'un modèle permettant de manipuler un nombre réduit de paramètres, comparé au nombre d'échantillons de signaux produits au sens des méthodes non paramétriques. Les techniques de synthèse paramétriques reposent typiquement sur des modèles additifs, soustractifs, source/filtre ou non-linéaires.
  • Parmi ces méthodes paramétriques, on qualifie de "mutuelles" celles qui permettent de manipuler en commun des paramètres correspondant à des sources sonores différentes, pour n'utiliser alors qu'un seul processus de synthèse, néanmoins pour la totalité des sources. Dans les méthodes dites "sinusoïdales", typiquement, on construit un spectre en fréquence à partir des paramètres tels que l'amplitude et la fréquence de chaque composante partielle du spectre sonore global des sources. En effet, une implémentation par transformée de Fourier inverse, suivie d'une addition/recouvrement, assure une synthèse extrêmement efficace de plusieurs sources sonores simultanément.
  • Pour ce qui concerne la spatialisation de sources sonores, différentes techniques sont connues actuellement. Certaines techniques (comme le "transaural" ou le "binaural") se basent sur la prise en compte de fonctions de transfert HRTFs (pour "Head Related Transfer Function") représentant la perturbation d'ondes acoustiques par la morphologie d'un individu, ces fonctions HRTFs étant propres à cet individu. La restitution sonore s'effectue de façon adaptée aux HRTFs de l'auditeur, typiquement sur deux haut-parleurs distants ("transaural") ou à partir des deux oreillettes d'un casque ("binaural"). D'autres techniques (par exemple l'"ambiophonique" ou le "multicanal" (5.1 à 10.1 ou plus) prévoient plutôt une restitution sur plus de deux haut-parleurs.
  • Plus précisément, certaines techniques à base de HRTFs utilisent la séparation des variables "fréquence" et "position" des HRTFs, donnant ainsi un ensemble de p filtres de base (correspondant aux p premières valeurs propres de la matrice de covariance des HRTFs dont les variables statistiques sont les fréquences), ces filtres étant pondérés par des fonctions spatiales (obtenues par projection des HRTFs sur des filtres de base). Les fonctions spatiales peuvent ensuite être interpolées, comme décrit dans le document US-5,500,900 .
  • La spatialisation de nombreuses sources sonores peut être réalisée grâce à une implémentation multicanale appliquée au signal de chacune des sources sonores. Les gains des canaux de spatialisation sont appliqués directement aux échantillons sonores du signal, souvent décrits dans le domaine temporel (mais possiblement aussi dans le domaine fréquentiel). Ces échantillons sonores sont traités par un algorithme de spatialisation (avec application de gains qui sont fonction de la position désirée), et ce, indépendamment de l'origine de ces échantillons. Ainsi, la spatialisation proposée pourrait s'appliquer aussi bien à des sons naturels qu'à des sons synthétiques.
  • D'une part, chaque source sonore doit être synthétisée indépendamment (avec obtention d'un signal temporel ou fréquentiel), afin de pouvoir appliquer ensuite des gains de spatialisation indépendants. Pour N sources sonores, il est donc nécessaire de réaliser N calculs de synthèse.
    D'autre part, l'application des gains à des échantillons sonores, qu'ils soient issus du domaine temporel ou fréquentiel, nécessite au minimum autant de multiplications qu'il y a d'échantillons. Pour un bloc de Q échantillons, il est donc nécessaire d'appliquer au moins N.M.Q gains, M étant le nombre de canaux intermédiaires (canaux ambiophoniques par exemple) et N étant le nombre de sources.
    Ainsi, cette technique nécessite un coût de calcul élevé dans le cas de la spatialisation de nombreuses sources sonores.
  • Parmi les techniques ambiophoniques, la méthode dite des "haut-parleurs virtuels" permet d'encoder les signaux à spatialiser en leur appliquant en particulier des gains, le décodage étant réalisé par convolution des signaux encodés par des filtres pré-calculés (Jérôme Daniel, "Représentation de champs acoustiques, application à la transmission et à la reproduction de scènes sonores complexes dans un contexte multimédia", Thèse de doctorat, 2000).
  • Une technique très prometteuse, combinant synthèse et spatialisation, a été présentée dans le document WO-05/069272 .
  • Elle consiste à déterminer des amplitudes à affecter à des signaux représentant des sources sonores pour définir, à la fois, l'intensité sonore (par exemple un "volume") d'une source à synthétiser et un gain de spatialisation de cette source. Ce document divulgue notamment une spatialisation binaurale avec prise en compte des retards et des gains (ou "fonctions spatiales") et, en particulier, un mixage des sources synthétisées dans la partie encodage de spatialisation.
  • Plus particulièrement encore, un exemple de réalisation qui est visé dans ce document WO-05/069272 et dans lequel les sources sont synthétisées en associant des amplitudes à des fréquences constitutives d'un "timbre sonore" (par exemple une fréquence fondamentale et ses harmoniques), prévoit de regrouper par fréquences identiques des signaux de synthèse, en vue d'une spatialisation ultérieure opérant sur les fréquences.
  • Cet exemple de réalisation est illustré sur la figure 1. Dans un bloc de synthèse SYNTH (représenté en traits pointillés), on affecte à des fréquences f0, f1, f2, ..., fp de chaque source à synthétiser S1, ..., SN des amplitudes respectives a0 1, a1 1, ..., ap 1, ..., ai j, ..., a0 N, a1 N, ..., ap N, où, dans la notation générale ai j, j est un indice de source compris entre 1 et N et i est un indice de fréquence compris entre 0 et p. Bien entendu, certaines amplitudes d'un jeu a0 j, a1 j, ..., ap j à affecter à une même source j peuvent être nulles si les fréquences correspondantes ne sont pas représentées dans le timbre sonore de cette source j.
    Les amplitudes ai 1, ..., ai N relatives à chaque fréquence fi sont regroupées ("mixées") pour être appliquées, fréquence par fréquence, au bloc de spatialisation SPAT pour un encodage opérant sur les fréquences (en binaural par exemple, en prévoyant alors un retard interaural à appliquer à chaque source). Les signaux des canaux c1, ..., ck, issus du bloc de spatialisation SPAT, sont ensuite destinés à être transmis à travers un ou plusieurs réseaux, ou encore stockés, ou autres, en vue d'une restitution ultérieure (précédée le cas échéant d'un décodage de spatialisation adapté).
  • Cette technique, quoique très prometteuse, mérite encore quelques optimisations.
  • De manière générale, les procédés actuels requièrent des puissances de calcul notables pour spatialiser de nombreuses sources sonores synthétisées.
  • La présente invention vient améliorer la situation.
  • elle propose à cet effet un procédé pour synthétiser et spatialiser conjointement une pluralité de sources sonores dans des positions associées de l'espace, le procédé comportant :
    1. a) une étape d'affectation à chaque source d'au moins un paramètre de synthèse pi, représentatif d'une amplitude d'au moins une composante fréquentielle de la source,
    2. b) une étape de spatialisation mettant en oeuvre un encodage en une pluralité de canaux, dans laquelle on duplique chaque paramètre d'amplitude pour le multiplier par un gain de spatialisation, chaque gain de spatialisation étant déterminé, d'une part, pour un canal d'encodage et, d'autre part, pour une source à spatialiser,
    3. c) une étape de regroupement des paramètres multipliés par les gains, dans des canaux respectifs, en appliquant une somme desdits paramètres multipliés sur toutes les sources pour chaque canal, et
    4. d) une étape de synthèse paramétrique appliquée à chacun des canaux.
  • Il est aussi proposé un programme d'ordinateur selon la revendication 6 et un module selon la revendication 7.
  • Ainsi, la présente invention propose à cet effet d'appliquer d'abord un encodage en spatialisation, puis une "pseudo-synthèse", le terme "pseudo" visant le fait que la synthèse s'applique en particulier aux paramètres encodés, issus de la spatialisation et non à des signaux sonores synthétiques habituels.
  • En effet, une particularité que propose l'invention est l'encodage spatial de quelques paramètres de synthèse, plutôt que de réaliser un encodage spatial des signaux correspondant directement aux sources. Cet encodage spatial s'applique plus particulièrement à des paramètres de synthèse qui sont représentatifs d'une amplitude et il consiste avantageusement à appliquer à ces quelques paramètres de synthèse des gains de spatialisation qui sont calculés en fonction de positions souhaitées respectives des sources. On comprendra ainsi que les paramètres multipliés par les gains à l'étape b) et regroupés à l'étape c) ne sont pas réellement des signaux sonores, comme au sens de l'art antérieur général décrit ci-avant.
  • La présente invention utilise alors une synthèse paramétrique mutuelle où l'un des paramètres possède la dimension d'une amplitude. Contrairement aux techniques de l'art antérieur, elle tire ainsi partie des avantages d'une telle synthèse pour effectuer la spatialisation. La combinaison des jeux de paramètres de synthèse obtenus pour chacune des sources permet avantageusement de contrôler globalement les blocs encodés de synthèse paramétrique mutuelle.
  • La présente invention permet alors de spatialiser simultanément et indépendamment de nombreuses sources sonores synthétisées à partir d'un modèle de synthèse paramétrique, les gains de spatialisation étant appliqués aux paramètres de synthèse plutôt qu'aux échantillons du domaine temporel ou fréquentiel. Cette réalisation assure alors une économie substantielle de la puissance de calcul requise car elle implique un faible coût de calcul.
  • Selon l'un des avantages que procure l'invention, comme le nombre d'étapes dans la synthèse est rendu indépendant par rapport au nombre de sources, une seule synthèse par canal intermédiaire peut être appliquée. Quel que soit le nombre de sources sonores, seul un nombre constant M de calculs de synthèse est prévu. Typiquement, dès lors que le nombre de sources N devient plus grand que le nombre M de canaux intermédiaires, la technique au sens de l'invention nécessite moins de calculs que les techniques habituelles au sens de l'art antérieur. Par exemple, à l'ordre ambiophonique 1 et en deux dimensions (soit trois canaux intermédiaires), l'invention permet déjà un gain de calcul pour seulement quatre sources à spatialiser.
  • La présente invention permet aussi de diminuer le nombre de gains à appliquer. En effet, les gains sont appliqués aux paramètres de synthèse et non aux échantillons sonores. La mise à jour des paramètres tels que le volume étant généralement moins fréquente que la fréquence d'échantillonnage d'un signal, une économie de calcul est ainsi réalisée. Par exemple, pour une fréquence de mise à jour de paramètres (tel que le volume notamment) de 200Hz, on réalise une économie de multiplications substantielle pour une fréquence d'échantillonnage du signal de 44100Hz (selon un rapport d'environ 200).
  • Les champs d'application de la présente invention peuvent concerner aussi bien le domaine musical (notamment les sonneries polyphoniques de mobiles), le domaine du multimédia (notamment les sonorisations de jeux vidéo), le domaine de la réalité virtuelle (rendu de scènes sonores), les simulateurs (synthèse de bruits moteurs), ou autres.
  • D'autres caractéristiques et avantages de l'invention apparaîtront à l'examen de la description détaillée ci-après, et des dessins annexés sur lesquels, outre la figure 1 relative à l'art antérieur et décrite ci avant :
    • la figure 2 illustre le traitement général de spatialisation et synthèse prévu dans un procédé au sens de l'invention,
    • la figure 3 illustre un traitement des signaux spatialisés et synthétisés, pour un décodage spatial en vue d'une restitution,
    • la figure 4 illustre un mode de réalisation particulier dans lequel on affecte plusieurs paramètres d'amplitude à chaque source, chaque paramètre étant associé à une composante fréquentielle,
    • la figure 5 illustre les étapes d'un procédé au sens de l'invention, et peut correspondre à un organigramme d'un programme d'ordinateur pour la mise en oeuvre de l'invention.
  • En référence à la figure 2, on affecte au moins un paramètre pi, représentatif d'une amplitude, à une source Si parmi une pluralité de sources S1, ..., SN à synthétiser et spatialiser (i étant compris entre 1 et N). On duplique chaque paramètre pi en autant de canaux de spatialisation prévus dans le bloc de spatialisation SPAT. Dans l'exemple représenté où l'on prévoit M canaux d'encodage pour la spatialisation, on duplique M fois chaque paramètre pi pour appliquer des gains de spatialisation respectifs gi 1, gi M (i étant, pour rappel, un indice de source Si).
    On obtient alors N.M paramètres multipliés chacun par un gain : p1g1 1, ..., P1g1 M, ..., pigi 1, ..., pigi M, ..., pNgN 1, ..., pNgN M.
    On regroupe ensuite ces paramètres multipliés (référence R de la figure 2) par canaux de spatialisation (M canaux en tout), soit :
    • p1g1 1, ..., pigi 1, ..., pNgN 1 regroupés dans un premier canal de spatialisation pg 1,
      et ce, jusqu'à :
    • p1g1 M, ..., pigi M, ..., pNgN M regroupés dans un Mième canal de spatialisation pg M,
    la lettre g de l'indice désignant le terme "global".
  • Ainsi, de nouveaux paramètres pi m (i variant de 1 à N et m variant de 1 à M) sont calculés par multiplication des paramètres pi par les gains d'encodage gi m, obtenus à partir de la position de chacune des sources. Les paramètres pi m sont combinés (par sommation dans l'exemple décrit) afin de fournir les paramètres pg m qui alimentent M blocs de synthèse paramétrique mutuelle. Ces M blocs (référencés SYNTH(1) à SYNTH(M) sur la figure 2) sont constitutifs du module de synthèse SYNTH, lequel délivre M signaux temporels ou fréquentiels ssm (m variant de 1 à M), obtenus par synthèse à partir des paramètres pg m. Ces signaux ssm peuvent ensuite alimenter un bloc classique de décodage spatial, comme on le verra plus loin en référence à la figure 3.
  • Dans un mode de réalisation particulier, la synthèse utilisée est une synthèse additive avec application d'une transformée de Fourier inverse (IFFT).
  • A cet effet, un ensemble de N sources est caractérisé par une pluralité de paramètres pi,k représentant l'amplitude dans le domaine fréquentiel de la kième composante fréquentielle pour la iième source Si.
    Le signal temporel si(n) qui correspondrait à cette source Si, s'il était synthétisé indépendamment des autres sources, serait donné par : s i n = Σ k = 1 K c i , k n , avec c i , k n = p i , k n cos 2 πf i , k n n / F e + ϕ i , k n
    Figure imgb0001
    où pi,k est l'amplitude de la composante de fréquence fi,k et dont la phase est donnée par ϕi,k pour la source Si, à l'instant n.
    Il est possible de réaliser la synthèse additive dans le domaine fréquentiel à partir des seuls paramètres pi,k, fi,k et ϕi,k donnés, en utilisant par exemple la technique exposée dans le document FR-2 679 689 .
    Le paramètre pi,k représente l'amplitude d'une composante fréquentielle k donnée pour une source Si donnée. On en déduit donc les paramètres pm i,k pour chaque source et chacun des M canaux grâce à la relation : p m i , k = g m i - p i , k ,
    Figure imgb0002
    m variant de 1 à M. Les gains gm i sont prédéterminés pour une position désirée pour la source Si et en fonction de l'encodage de spatialisation choisi.
  • Dans le cas d'un encodage ambiophonique par exemple, ces gains correspondent aux harmoniques sphériques et peuvent s'écrire gm i = Ymii), où :
    • Ym est un harmonique sphérique d'ordre m,
    • θi et δi sont respectivement l'azimut et le site souhaités pour la source Si.
  • Les paramètres pm i,k sont ensuite combinés fréquence par fréquence, de manière à obtenir un seul paramètre global :
    • p m g , = i = 1 N p m i , k ,
      Figure imgb0003
      , où k' décrit toutes les fréquences fi,k présentes dans toutes les sources Si.
    En pratique, la valeur de k' est inférieure à k.i car des fréquences communes peuvent caractériser plusieurs sources à la fois. Dans une réalisation, il peut être prévu d'associer un même jeu global de fréquences à toutes les sources, quitte à ce que certains paramètres d'amplitude pour certaines fréquences de sources soient nuls.
    Dans ce cas, les valeurs de k et k' sont égales et la relation précédente s'écrit simplement: p m g , k = i = 1 N p m i , k .
    Figure imgb0004
    L'étape de synthèse consiste à utiliser ces paramètres pm g,k (m variant de 1 à M) pour synthétiser chacun des M spectres en fréquence ssm(ω) issus du module de synthèse SYNTH. Il peut être prévu à cet effet d'appliquer la technique décrite dans FR-2 679 689 , en ajoutant itérativement des enveloppes spectrales correspondant à la transformée de Fourier d'une fenêtre temporelle (par exemple de Hanning), ces enveloppes spectrales étant précédemment échantillonnées, tabulées, centrées aux fréquences fk et pondérées alors par pm g,k, ce qui s'écrit :
    • SS m ω = k = 1 K p m g , k env k ω ,
      Figure imgb0005
      où envk(ω) est l'enveloppe spectrale centrée à la fréquence fk.
  • Cette réalisation est illustrée sur la figure 4. On affecte K paramètres d'amplitude pi,k à chaque source Si. L'indice i, de source, est compris entre 1 et N. L'indice k, de fréquence, est compris entre 1 et K. Pour chaque source Si, on duplique ces K paramètres, M fois, pour être multiplié chacun par un gain de spatialisation gi m. L'indice m, de canal d'encodage de spatialisation, est compris entre 1 et M.
  • Dans chaque canal m, on regroupe, fréquence par fréquence, les K résultats des produits gi m.pi,k, selon l'expression donnée ci-avant : p m g , k = i = 1 N p m i , k , avec p m i , k = g m i p i , k ,
    Figure imgb0006

    où k varie de 1 à K dans chaque canal m, et m varie globalement de 1 à M.
    On comprendra ainsi que dans chaque canal m, il est prévu des sous-canaux pm g,k associés chacun à une composante fréquentielle k, l'indice g désignant, pour rappel, le terme "global".
    Le traitement se poursuit alors en multipliant le paramètre global de chaque sous-canal pm g,k associé à une fréquence fk par une enveloppe spectrale envk(ω) centrée en cette fréquence fk, et ce, pour tous les K sous-canaux (k compris entre 1 et K), et globalement, pour tous les M canaux (m étant compris entre 1 et M). Ensuite, les K sous-canaux sont sommés dans chaque canal m, conformément à la relation ci-après :
    • SS m ω = k = 1 K p m g , k env k ω ,
      Figure imgb0007
      pour m allant de 1 à M canaux au total. On obtient alors les signaux ssm(ω) encodés pour leur spatialisation et synthétisés au sens de l'invention. Ils sont exprimés dans le domaine fréquentiel.
  • Pour ramener ces M signaux dans le domaine temporel (notés alors SSm(n)), on peut leur appliquer ensuite une transformée de Fourier inverse (IFFT) : SS m n = IFFT ss m ω
    Figure imgb0008
    Le traitement par trames successives peut être réalisé par une technique classique d'addition/recouvrement.
  • Chacun des M signaux temporels SSm(n) peut ensuite être fourni à un bloc de décodage de spatialisation.
  • A cet effet, il peut être prévu par exemple une paire de filtres adaptés Fgm(n), Fdm(n) à appliquer, par convolution, à chaque signal SSm(n), comme représenté sur la figure 3, pour une adaptation d'un encodage ambiophonique vers une restitution en binaural à deux voies gauche et droite. Ces filtres pour une telle transition ambiophonique/binaural peuvent être obtenus par application de la technique des haut-parleurs virtuels citée ci-avant.
  • Le traitement réalisé par le bloc DECOD de décodage spatial de la figure 3 peut être du type : S S m g n = S S m * Fg m n
    Figure imgb0009
    S S m d n = S S m * Fd m n
    Figure imgb0010
    Après filtrage, tous les signaux destinés aux oreilles gauche et droite sont sommés respectivement, et on obtient ainsi une paire de signaux binauraux : S g n = m = 1 M S S g m n
    Figure imgb0011
    S d n = m = 1 M S S d m n
    Figure imgb0012
    qui viennent alimenter alors les écouteurs d'un casque à deux oreillettes.
  • On décrit néanmoins une variante plus avantageuse ci-après. Les filtres d'adaptation du format ambiophonique vers le format binaural peuvent être appliqués directement dans le domaine fréquentiel, évitant ainsi une convolution dans le domaine temporel et un coût de calcul correspondant.
  • A cet effet, chacun des M spectres en fréquence ssm(ω) est directement multiplié par les transformées de Fourier respectives des filtres temporels, notées Fgm(ω) et Fdm(ω) (adaptées le cas échéant pour avoir un nombre de points cohérent), ce qui s'écrit : S S m g ω = S S m ω . F g m ω
    Figure imgb0013
    S S m d ω = S S m ω . F d m ω
    Figure imgb0014
    Les spectres sont ensuite sommés par oreille avant d'effectuer la transformée de Fourier inverse et l'opération d'addition/recouvrement, soit : S g ω = m = 1 M S m g ω
    Figure imgb0015
    S d ω = m = 1 M S m d ω
    Figure imgb0016
    Puis, pour exprimer les signaux alimentant le dispositif de restitution dans le domaine temporel, on applique la transformée de Fourier inverse : S g n = IFFT s g ω
    Figure imgb0017
    S d n = IFFT s d ω
    Figure imgb0018
  • La présente invention vise aussi un produit programme d'ordinateur, qu'il soit stocké dans une mémoire d'une unité centrale ou d'un terminal, ou sur un support amovible propre à coopérer avec un lecteur de cette unité centrale (CD-ROM, disquette ou autre), ou encore téléchargeable via un réseau de télécommunications. Ce programme comporte en particulier des instructions pour la mise en oeuvre du procédé décrit ci-avant et dont un organigramme peut être illustré à titre d'exemple sur la figure 5, résumant les étapes d'un tel procédé.
    • L'étape a) vise l'affectation des paramètres représentatifs d'une amplitude à chaque source Si. Dans l'exemple représenté, on affecte un paramètre pi,k par composante fréquentielle fk comme décrit ci-avant.
    • L'étape b) vise la duplication de ces paramètres et leur multiplication par les gains gi m des canaux d'encodage.
    • L'étape c) vise le regroupement des produits obtenus à l'étape b), avec en particulier le calcul de leur somme sur toutes les sources Si.
    • L'étape d) vise la synthèse paramétrique avec multiplication par une enveloppe spectrale envk comme décrit ci-avant, suivi d'un regroupement des sous-canaux par application, dans chaque canal, d'une somme sur toutes les composantes fréquentielles (d'indice k allant de 1 à K).
    • L'étape e) vise un décodage de spatialisation des signaux ssm issus des canaux respectifs, synthétisés, spatialisés et représentés dans le domaine fréquentiel, pour une restitution sur deux haut-parleurs par exemple au format binaural.
  • La présente invention vise aussi un dispositif de génération de sons synthétiques et spatialisés, comprenant notamment un processeur, et, en particulier, une mémoire de travail propre à stocker des instructions du produit programme d'ordinateur défini ci-avant.
  • Bien entendu, la présente invention ne se limite pas à la forme de réalisation décrite ci-avant à titre d'exemple ; elle s'étend à d'autres variantes.
  • Ainsi, il a été décrit ci-avant à titre d'exemple un encodage de spatialisation en format ambiophonique réalisé par le module SPAT de la figure 2, suivi d'une adaptation du format ambiophonique vers le format binaural. En variante, il peut être prévu par exemple d'appliquer directement un encodage vers le format binaural.
  • Par ailleurs, la multiplication par des enveloppes spectrales de la synthèse paramétrique est décrite ci-avant à titre d'exemple, d'autres modèles pouvant être prévus en variante.

Claims (7)

  1. Procédé pour synthétiser et spatialiser conjointement une pluralité de sources sonores dans des positions associées de l'espace, comportant :
    a) une étape d'affectation à chaque source d'au moins un paramètre (pi) représentatif d'une amplitude d'au moins une composant frequentielle de la source,
    b) une étape de spatialisation mettant en oeuvre un encodage en une pluralité de canaux, dans laquelle on duplique chaque paramètre d'amplitude (p1) pour le multiplier à un gain de spatialisation (gi m), chaque gain de spatialisation étant déterminé, d'une part, pour un canal d'encodage (pg m) et, d'autre part, pour une source à spatialiser (Si),
    c) une étape de regroupement (R) des paramètres (pi m) multipliés par les gains, dans des canaux respectifs (pg 1, ..., pg M), en appliquant une somme desdits paramètres multipliés (pi m) sur toutes les sources (Si) pour chaque canal (pg m), et
    d) une étape de synthèse paramétrique (SYNTH(1), ..., SYNTH(M)) appliquée à chacun des canaux (pg m).
  2. Procédé selon la revendication 1, dans lequel :
    a) on affecte à chaque source (Si) une pluralité de paramètres (pi,k) représentatifs, chacun, d'une d'amplitude d'une composante fréquentielle (fk),
    b) on duplique chaque paramètre d'amplitude (pi,k) représentatif d'une composante fréquentielle (fk) pour le multiplier à un gain de spatialisation (gi m), chaque gain de spatialisation étant déterminé, d'une part, pour un canal d'encodage (pg m) et, d'autre part, pour une source à spatialiser (Si),
    c) dans chaque canal, on regroupe, composante fréquentielle par composante fréquentielle, les produits des paramètres (pi,k) par les gains (gi m), en sous-canaux (pg,k m) associés chacun à une composante fréquentielle (fk).
  3. Procédé selon la revendication 2, dans lequel la synthèse est menée, dans chaque canal, en :
    d1) multipliant la sortie de chaque sous-canal associé à une composante fréquentielle (fk) par une enveloppe spectrale (envk) centrée sur une fréquence correspondant à ladite composante fréquentielle (fk),
    d2) et en regroupant, par une somme sur les composantes fréquentielles (fk), les produits résultant de l'opération d1),
    pour obtenir, suite à l'opération d2), un signal (ssm) issu de chaque canal, encodé en spatialisation et synthétisé.
  4. Procédé selon l'une des revendications précédentes, dans lequel la spatialisation est menée par encodage ambiophonique et les paramètres représentatifs d'une amplitude qui sont affectés aux sources correspondent à des amplitudes d'harmoniques sphériques (Ym).
  5. Procédé selon la revendication 4, prise en combinaison avec la revendication 3, dans lequel, pour passer d'un encodage ambiophonique à un décodage en vue d'une restitution en spatialisation binaurale, on applique un traitement dans le domaine fréquentiel directement aux résultats des produits issus des canaux respectifs après l'opération d2).
  6. Produit programme d'ordinateur, stocké dans une mémoire d'une unité centrale ou d'un terminal, et/ou sur un support amovible propre à coopérer avec un lecteur de ladite unité centrale, et/ou téléchargeable via un réseau de télécommunications, caractérisé en ce qu'il comporte des instructions pour la mise en oeuvre du procédé selon l'une des revendications 1 à 5.
  7. Module de génération de sons synthétiques spatialisés, comprenant notamment un processeur, caractérisé en ce qu'il comporte en outre une mémoire de travail stockant des instructions du produit programme d'ordinateur selon la revendication 6.
EP07731685A 2006-03-13 2007-03-01 Synthese et spatialisation sonores conjointes Active EP1994526B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PL07731685T PL1994526T3 (pl) 2006-03-13 2007-03-01 Połączona synteza i uprzestrzennienie dźwięków

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0602170 2006-03-13
PCT/FR2007/050868 WO2007104877A1 (fr) 2006-03-13 2007-03-01 Synthese et spatialisation sonores conjointes

Publications (2)

Publication Number Publication Date
EP1994526A1 EP1994526A1 (fr) 2008-11-26
EP1994526B1 true EP1994526B1 (fr) 2009-10-28

Family

ID=37400911

Family Applications (1)

Application Number Title Priority Date Filing Date
EP07731685A Active EP1994526B1 (fr) 2006-03-13 2007-03-01 Synthese et spatialisation sonores conjointes

Country Status (8)

Country Link
US (1) US8059824B2 (fr)
EP (1) EP1994526B1 (fr)
JP (1) JP5051782B2 (fr)
AT (1) ATE447224T1 (fr)
DE (1) DE602007002993D1 (fr)
ES (1) ES2335246T3 (fr)
PL (1) PL1994526T3 (fr)
WO (1) WO2007104877A1 (fr)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8786852B2 (en) 2009-12-02 2014-07-22 Lawrence Livermore National Security, Llc Nanoscale array structures suitable for surface enhanced raman scattering and methods related thereto
US9395304B2 (en) 2012-03-01 2016-07-19 Lawrence Livermore National Security, Llc Nanoscale structures on optical fiber for surface enhanced Raman scattering and methods related thereto
US9788135B2 (en) 2013-12-04 2017-10-10 The United States Of America As Represented By The Secretary Of The Air Force Efficient personalization of head-related transfer functions for improved virtual spatial audio
JP2019530312A (ja) * 2016-10-04 2019-10-17 オムニオ、サウンド、リミテッドOmnio Sound Limited ステレオ展開技術

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2679689B1 (fr) * 1991-07-26 1994-02-25 Etat Francais Procede de synthese de sons.
JPH08502867A (ja) 1992-10-29 1996-03-26 ウィスコンシン アラムニ リサーチ ファンデーション 指向性音を作る方法及び装置
US5596644A (en) 1994-10-27 1997-01-21 Aureal Semiconductor Inc. Method and apparatus for efficient presentation of high-quality three-dimensional audio
FR2782228B1 (fr) 1998-08-05 2001-05-25 Ct Scient Tech Batiment Cstb Dispositif de simulation sonore et procede pour realiser un tel dispositif
FR2847376B1 (fr) * 2002-11-19 2005-02-04 France Telecom Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede
FI118247B (fi) * 2003-02-26 2007-08-31 Fraunhofer Ges Forschung Menetelmä luonnollisen tai modifioidun tilavaikutelman aikaansaamiseksi monikanavakuuntelussa
FR2851879A1 (fr) * 2003-02-27 2004-09-03 France Telecom Procede de traitement de donnees sonores compressees, pour spatialisation.
US20070160216A1 (en) * 2003-12-15 2007-07-12 France Telecom Acoustic synthesis and spatialization method
SE0400998D0 (sv) * 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
US8204261B2 (en) * 2004-10-20 2012-06-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Diffuse sound shaping for BCC schemes and the like
ES2396072T3 (es) * 2006-07-07 2013-02-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato para combinar múltiples fuentes de audio paramétricamente codificadas
US9185507B2 (en) * 2007-06-08 2015-11-10 Dolby Laboratories Licensing Corporation Hybrid derivation of surround sound audio channels by controllably combining ambience and matrix-decoded signal components

Also Published As

Publication number Publication date
EP1994526A1 (fr) 2008-11-26
WO2007104877A1 (fr) 2007-09-20
ES2335246T3 (es) 2010-03-23
JP2009530883A (ja) 2009-08-27
DE602007002993D1 (de) 2009-12-10
ATE447224T1 (de) 2009-11-15
US20090097663A1 (en) 2009-04-16
PL1994526T3 (pl) 2010-03-31
JP5051782B2 (ja) 2012-10-17
US8059824B2 (en) 2011-11-15

Similar Documents

Publication Publication Date Title
EP1600042B1 (fr) Procede de traitement de donnees sonores compressees, pour spatialisation
EP2000002B1 (fr) Procede et dispositif de spatialisation sonore binaurale efficace dans le domaine transforme
EP1992198B1 (fr) Optimisation d'une spatialisation sonore binaurale a partir d'un encodage multicanal
EP1999998B1 (fr) Procede de synthese binaurale prenant en compte un effet de salle
US8175280B2 (en) Generation of spatial downmixes from parametric representations of multi channel signals
EP2042001B1 (fr) Spatialisation binaurale de donnees sonores encodees en compression
EP1886535B1 (fr) Procede pour produire une pluralite de signaux temporels
EP1695335A1 (fr) Procede de synthese et de spatialisation sonores
US20220408188A1 (en) Spectrally orthogonal audio component processing
EP1994526B1 (fr) Synthese et spatialisation sonores conjointes
EP3400599B1 (fr) Encodeur ambisonique ameliore d'une source sonore a pluralite de reflexions
EP3025514B1 (fr) Spatialisation sonore avec effet de salle
KR102660704B1 (ko) 스펙트럼적 직교 오디오 성분 처리
KR20240060678A (ko) 스펙트럼적 직교 오디오 성분 처리
WO2006097633A1 (fr) Procede et systeme de spatialisation d'un signal sonore en fonction des qualites intrinseques de ce dernier

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20080828

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC MT NL PL PT RO SE SI SK TR

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

17Q First examination report despatched

Effective date: 20090616

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC MT NL PL PT RO SE SI SK TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

REF Corresponds to:

Ref document number: 602007002993

Country of ref document: DE

Date of ref document: 20091210

Kind code of ref document: P

REG Reference to a national code

Ref country code: ES

Ref legal event code: FG2A

Ref document number: 2335246

Country of ref document: ES

Kind code of ref document: T3

LTIE Lt: invalidation of european patent or patent extension

Effective date: 20091028

REG Reference to a national code

Ref country code: PL

Ref legal event code: T3

NLV1 Nl: lapsed or annulled due to failure to fulfill the requirements of art. 29p and 29m of the patents act
PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100301

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100228

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

REG Reference to a national code

Ref country code: IE

Ref legal event code: FD4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100128

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

Ref country code: IE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

BERE Be: lapsed

Owner name: FRANCE TELECOM

Effective date: 20100331

26N No opposition filed

Effective date: 20100729

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20100331

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100129

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20100331

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20110331

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20110331

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100429

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20100301

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091028

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 9

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 10

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 11

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 12

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20230222

Year of fee payment: 17

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: PL

Payment date: 20230224

Year of fee payment: 17

Ref country code: GB

Payment date: 20230221

Year of fee payment: 17

Ref country code: DE

Payment date: 20230221

Year of fee payment: 17

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: ES

Payment date: 20230403

Year of fee payment: 17