WO2006097633A1 - Procede et systeme de spatialisation d'un signal sonore en fonction des qualites intrinseques de ce dernier - Google Patents

Procede et systeme de spatialisation d'un signal sonore en fonction des qualites intrinseques de ce dernier Download PDF

Info

Publication number
WO2006097633A1
WO2006097633A1 PCT/FR2006/000580 FR2006000580W WO2006097633A1 WO 2006097633 A1 WO2006097633 A1 WO 2006097633A1 FR 2006000580 W FR2006000580 W FR 2006000580W WO 2006097633 A1 WO2006097633 A1 WO 2006097633A1
Authority
WO
WIPO (PCT)
Prior art keywords
frame
sound signal
frames
index
processing
Prior art date
Application number
PCT/FR2006/000580
Other languages
English (en)
Inventor
Jean-Philippe Thomas
Delphine Charlet
Mikaël COLLET
Original Assignee
France Telecom
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom filed Critical France Telecom
Priority to EP06743580A priority Critical patent/EP1869949A1/fr
Publication of WO2006097633A1 publication Critical patent/WO2006097633A1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Definitions

  • the sound exchanges essentially concern the emission and reception of sound signals, directly perceptible to the human ear. These include sound signals provided by radio, telephone, messaging, television and others.
  • the current techniques consist of either making a spatialized sound recording in the studio, or performing a non-real-time and manual studio treatment, in particular for the spatialization of movie soundtracks.
  • ambisonic technique Another example of physical reconstruction of the acoustic field is known as ambisonic technique, which uses a decomposition of the sound field on the basis of eigenfunctions called "spherical harmonics".
  • the known technique of stereophony exploits the differences in propagation time or loudness to position the sound sources between two or more speakers, from interaural differences in time and of intensity that define the perceptual criteria of auditory localization in a substantially horizontal plane.
  • the binaural techniques aim to reconstruct the acoustic field only in the vicinity of the listener's ears, so that the eardrums of the latter perceive an acoustic field substantially identical to that which would have been generated by real sources.
  • the object of the present invention is to overcome the drawbacks of the techniques of the prior art, in order to allow the widest application of spatialization techniques to any monophonic and / or stereophonic sound signal, or even to a more complex sound signal.
  • the subject of the present invention is a method for spatialising a sound signal that is remarkable in that it consists at least in subdividing this sound signal into successive frames, analyzing the frames of the sound signal in blocks of frames to determine at least a spectral and / or physiological parameter of this sound signal in each frame, assigning each frame an index representative of at least this spectral and / or physiological parameter, to generate a series of classified frames and to submit each frame or group of classified frames , assigned the same index, to a spatialization processing, depending on the value of this index assigned to each frame.
  • the subject of the present invention is furthermore a system for spatializing a remarkable sound signal in that it comprises at least, in combination, a module for analyzing this sound signal in successive frames, to determine and assign to each frame successively an index representative of at least one spectral and / or physiological parameter of said sound signal in each frame, to generate a sequence of indexes of classified frames and a processing module of each frame or group of frames of the sound signal, classified and assigned the same index, according to a spatialization processing, depending on the value of the assigned index.
  • the invention is applicable to the electronics industry for processing sound signals, in particular stereo or mono-phonic signals, recording phonograms and / or videograms, to the fixed telephony industry. or mobile, to voice communication and / or transmission of speech signals over the IP network.
  • FIG. 1a represents, purely by way of illustration, a flowchart of the essential steps for implementing the method that is the subject of the present invention
  • FIG. 1b represents, for purely illustrative purposes, a method of classifying acoustic frames according to acoustic classes, according to a remarkable aspect of the method, object of the present invention
  • FIGS. 2a and 2b represent, by way of illustration, a nonlimiting variant of implementation of the method which is the subject of the present invention applied in the deferred mode, either to the recording and restitution, or to the partial offline diffusion, or still the real-time online communication of phonograms and / or the sound portion of videograms, according to the method object of the present invention;
  • FIG. 3 a represents, by way of illustration, a spatialization system of a sound signal, in accordance with the subject of the present invention, operating in partial offline diffusion mode;
  • FIG. 3b represents, by way of illustration, a system for spatializing a sound signal in online communication mode, more particularly intended for devices of the telephone or other type.
  • the method which is the subject of the invention is implemented on a sound signal SS, this sound signal corresponding for example to a digital signal, digital audio, speech or telephony, for example.
  • the method which is the subject of the invention consists, in the first place, in a step A in subdividing the sound signal SS into successive frames. The subdivision operation is noted
  • the aforementioned subdivision step can be executed in a conventional manner by subdividing the signal into successive frames with a duration of between 10 and 20 milliseconds, for example, typically 16 milliseconds. A sampling of the sound signal is thus performed to obtain a succession of contiguous frames for example, i denoting the rank of the frame. Typical values are frames with a duration of 32 milliseconds, calculated every 16 milliseconds, thus with an overlap of 16 milliseconds.
  • Step A is followed by a step B of analyzing a block of frames of the sound signal TSS, to determine at least one spectral and / or physiological parameter of the sound signal in each frame.
  • step B of analyzing each frame is represented by the relation
  • [PspjJo denotes a set of spectral and / or physiological parameters resulting from the analysis.
  • spectral and / or physiological parameter of the sound signal it is indicated that this or these parameters may correspond for example to a frequency parameter for a musical signal, a formant for a speech signal or the like, as will be described later in the description. It is understood in particular that several significant parameters can be associated with each frame in particular when the sound signal
  • SS is a signal that includes both music and song lyrics, for example, or in other situations.
  • the number of spectral and / or physiological parameters assigned to each frame is not limiting, as will be described later in the description.
  • Step B is then followed by a step C of assigning to each frame TSSj an index representative of at least one spectral or physiological parameter to generate a sequence of classified frames.
  • step C of assigning an index is represented by the symbolic relation
  • index assigned to each frame corresponds for example to an index j assigned a sub-index k, the subindex k allowing, for example, to specify classification variants for the main classification j assigned to each frame.
  • Step C thus makes it possible to obtain a fine classification of each frame as a function of the spectral and / or physiological parameter or parameters of the sound signal SS in the frame considered TSSi.
  • Step C is then followed by a spatialization step D itself, this step consisting in submitting each classified frame or group of frames of the same index and noted to the same spatialization processing function of the value of the aforementioned index assigned to the frame in question.
  • S j , k (.) Indicates the specific spatialization treatment applied to any rank i-frame to which the index j, k has been assigned or to any corresponding frame group. It is understood in particular that for a frame duration typically equal to 16 milliseconds, for example, a succession of frames can of course be assigned the same index j, k.
  • step D of FIG. 1a is followed by a step E consisting of comparing the value of rank i of the frame considered TSSj with a maximum value I of the decomposition or subdivision into frames.
  • the rank of the frame considered i is incremented to the value i + 1 in step F to return to step A and continue the process as long as there is a frame not subject to the subdivision process of step A to ensure the complete processing of the SS sound signal. More specifically, it is indicated that the method that is the subject of the invention with reference to FIG. 1b consists in classifying each frame or group of frames according to a plurality of acoustic classes denoted by C j .
  • each acoustic class C j such as Music, Speech / Talker Type, Brouhaha, or Silence, for example, can be associated with an index value j taking the corresponding value 0, 1, 2, 3. for the aforementioned acoustic classes in a non-limiting manner.
  • the value of the index j, 0, 1, 2 or 3 is a value obtained by analysis from the spectral and / or physiological parameters of the sound signal SS in each frame and that the value subindex k associated with each index value may be an arbitrary value or corresponding to a particular quality of the sound signal.
  • the technique used to process documents that are a priori unknown is the following: - a change of speaker is detected (break in the signal of a particular index);
  • the speaker after change is compared to all the speakers already identified in the document and he is either recognized as one of them, or considered as a new speaker and therefore increases the size of the "reference dictionary" of speakers for this document or sound signal.
  • the spatialization process applied to each classified frame may be chosen from among a plurality of spatialization processes such as reverberation, attenuation, the fundamental frequency change, the harmonic filtering coloration, the delay for example, or the holophonie, stereophonic, binaural or other techniques. It will be understood that for any index value j and subindex k assigned to each frame TSSj or group of frames can thus be chosen, as a function of the aforementioned index and subindex value, a specific spatialization treatment. and in particular the most appropriate treatment according to the desired effect.
  • the processing may consist in applying a so-called "fun" effect by changing the speech signal.
  • voice tone for example, for one or more speakers of the SS sound signal.
  • the method which is the subject of the invention thus makes it possible to automatically apply sound renderings or differentiated sound positions to any sound documents which result in SS sound signals for which no additional information is available or for which there is no control. not the sound.
  • the latter also makes it possible to reduce the load or the bit rate of the networks or the spectrum of the radio waves, since while the transmission of the sound signal SS can be carried out on a signal monophonic for example, he. then it is quite possible to execute the spatialization process upon reception of this signal and therefore after transmission at least from the point of view of the load or the speed of the transmission network.
  • the method which is the subject of the invention can advantageously be executed in off-line mode in deferred time.
  • steps A, B represent the same steps as those bearing the same reference in FIG.
  • the index assignment step can then be subdivided into a step Co corresponding to choosing the corresponding index j and subindex k, assigned to each frame TSSj, the step Co being followed by a step C 1 consisting of compare the rank of the frame i to the final value I representative of the number of frames.
  • step C 1 consisting of compare the rank of the frame i to the final value I representative of the number of frames.
  • step Ci On the contrary, on a positive response to the test of step Ci, a record C 3 of all the frames noted [TSSiJ, and a series of indexes noted
  • step C 3 refers to a recording on any storage medium such as, for example, a non-volatile memory, a permanent memory, a CD or DVD type optical recording disk. example.
  • the offline mode implementation in deferred time of the method which is the subject of the invention then consists, as represented in FIG. 2b, from the record available, obtained in step C 3 , of reading the support of corresponding record, comprising at least the index sequence assigned to the. sound signal subdivided into frames and the sound signal or at least the sequence of frames representative of the latter in a step C shown in Figure 2b.
  • step D 0 is then followed by a step D 1 of applying to the sound signal and to each current frame of this sound signal, a spatialization processing function of the index assigned to the current frame of the sound signal according to the symbolic relationship of step D of figure la.
  • the spatialized sound signal is thus restored in accordance with the method that is the subject of the present invention.
  • the method that is the subject of the present invention can also be implemented in offline broadcast mode with a limited time offset, not exceeding the duration of a few frames, by analysis and classification of each successive frame and successive spatialization processing. each frame according to the assigned index.
  • step C3 the recording operation as described in connection with Figure 2a in step C3 can be started.
  • the system adapts to the recording.
  • the method that is the subject of the present invention can be executed in line communication mode with minimum time shift, not exceeding the duration of a frame, by analyzing and classifying and spatially processing each frame of the delayed sound signal to a maximum of one frame duration.
  • FIGS. 2a and 2b can be performed with storage in a memory such as a random access memory for example, the time offset being able to be reduced to the calculation time of the analysis operation of frame and index assignment for a current frame, that is to say the B and Co steps of Figure 2a, this calculation time can of course be made much smaller than the duration of a frame.
  • the abovementioned procedure for execution in online communication mode of the method that is the subject of the present invention can advantageously be used for a spatialization processing of a telephone communication, for example, on a speech signal transmitted over a fixed or mobile telephone network. for example. It can also be implemented in online communication mode for the transmission of an IP network speech signal - for example.
  • FIGS. 3a and 3b A more detailed description of a spatialization system of a sound signal according to the subject of the present invention will now be given in connection with FIGS. 3a and 3b.
  • the system which is the subject of the invention comprises at least in combination a module 1 for analyzing the sound signal in successive frames in order to determine and assign to each successive frame an index representative of minus one spectral and / or physiological parameter of the sound signal in each frame to thus generate a sequence of indexes of classified frames.
  • the index sequence of classified frames is represented by the relation
  • the system according to the invention furthermore comprises a module 2 for processing each frame or group of frames of the sound signal SS and in particular frames classified and assigned the same index according to a same spatialization processing, a function of the value of the assigned index and, as previously described in the description, of the sub-index k associated with any index value j representative of an acoustic class.
  • the spatialization processing module 2 is able, from the sequence of indexes of the aforementioned classified frames and, of course, from the sequence of frames which it has at its disposal. apply the spatialization processing and reproduce the spatialized sound signal on a set of loudspeakers denoted HP in FIGS.
  • the analysis module 1 delivers to the spatialization processing module 2 a signal representative of the index sequence as indicated above, as well as either the sound signal SS or the sequence of frames [TSSi] J shifted (e) temporeinlement of a duration substantially equal to a plurality of frame duration to the spatialization processing module 2.
  • the analysis module 1 and the processing module 2 are connected substantially in parallel as shown in the above-mentioned figure, to execute each subdivided into frames in parallel with the sound signal.
  • the analysis module 1 and the spatialization processing model 2 may advantageously each comprise a frame subdivision module, bearing the reference Io respectively 20 , which are synchronized by a signal synchronization S y exchanged for example between the module 1 and module 2 analysis processing by spatialization.
  • the analysis module 1 furthermore comprises a module 1 1 executing the operations B and C of FIG. 1a, that is to say allowing the analysis of frames and the assignment of indexes to generate the sequence of classified frames and, in particular, the index sequence previously described.
  • the spatialization processing module 2 comprises a processing module ensuring the actual spatialization operation on the series of classified frames.
  • FIG. 3b it is indicated that the processing of analysis module 1 and, in particular, the module I 1 of the latter can be much lower than that of a frame duration, which makes it possible to ensure a mode of operation of the system shown in Figure 3b with a processing time much lower than a frame time.
  • the corresponding system then appears particularly well suited to processing the sound signal SS in online communication mode under the conditions indicated above in the description.
  • the method which is the subject of the present invention and the corresponding system as described in FIGS. 3a and 3b can be implemented from corresponding software modules and in particular from a program recorded on a storage medium and executed by a computer.
  • this module makes it possible to execute the subdivision into frames, as well as software modules allowing the analysis of each successive frame of the signal. sound to determine at least one spectral and / or physiological parameter of the sound signal in each frame, and then assign to each frame the representative index of the spectral and / or physiological parameter to generate a sequence of classified frames, that is to say say the signal corresponding to the index sequence previously described in the description.
  • These operations are executed by a software module I 1 implanted on the analysis module 1 represented in FIG. 3a or 3b.
  • the spatialization module 2 ⁇ which makes it possible to execute and submit each frame to the group of classified frames affected. from the same index to a spatialization process according to the value of the index assigned to each frame.
  • the operating mode is that shown in FIG. 1a.
  • the sound signal SS is then successively subjected to the steps A, B, C, D and E of the above-mentioned figure on a terminal from a transmitted SS sound signal. via IP packets without any prior processing performed at the server transmitting the corresponding html pages.
  • the operating mode corresponds to an on-line processing with a processing delay corresponding to at most one frame duration.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

L'invention concerne un procédé et un système de spatialisation d'un signal sonore (SS). On subdivise (A) le signal sonore en trames successives (TSSi), on analyse (B) les trames par blocs de trames pour déterminer au moins un paramètre spectral et/ou physiologique (Pspj) dans chaque trame, on affecte (C) à chaque trame un index (j,k) représentatif de ce paramètre pour engendrer une suite de trames classifïées et on soumet (D) chaque trame (F) affectée d'un même index (j,k), à un traitement de spatiaiisation (Sj,k). Application au traitement de spatialisation de signaux monophoniques, stéréophoniques, de parole, téléphoniques ou autres.

Description

PROCEDE ET SYSTEME DE SPATIALISATIQN D'UN SIGNAL SONORE EN FONCTION DES QUALITES INTRINSEQUES DE CE DERNIER
A l'heure actuelle, la quasi-totalité des échanges sonores sont monophoniques. Les échanges sonores concernent essentiellement l'émission et la réception de signaux sonores, directement perceptibles par l'oreille humaine. Parmi ceux-ci, on peut citer les signaux sonores fournis par la radio, le téléphone, la messagerie, la télévision ou autres.
Parmi les qualités reconnues à un signal sonore, celle relative au relief ou au rendu spatial de ce dernier est la plus recherchée. Pour spatialiser un signal ou contenu sonore, les techniques actuelles consistent, soit à effectuer une prise de son spatialisée, en studio, soit à effectuer un traitement hors temps réel et manuel en studio, notamment pour la spatialisation des bandes sonores du cinéma.
Pour ce qui concerne la prise de son spatialisée, ces procédés, basés sur une approche physique, consistent, en général, à reproduire le champ sonore à l'identique du champ acoustique d'origine au sein d'une zone de dimensions finies. Grâce à ces procédés, l'auditeur est plongé dans un champ identique en tout point à celui qu'il aurait perçu en présence des sources réelles et ce dernier est donc capable de localiser les sources sonores comme en situation d'écoute réelle. Pour une description plus détaillée de ce type de technique, en particulier d'holophonie, on pourra se reporter aux travaux intitulés "Restitution sonore spatialisée sur une zone étendue : Application à la téléprésence" R. Nicol ; thèse de l'Université du Maine, 1999.
Un autre exemple de reconstruction physique du champ acoustique est connu sous le nom de technique ambiophonique, "ambisonic" en anglais, laquelle utilise une décomposition du champ sonore sur une base de fonctions propres appelées "harmoniques sphériques".
La technique connue de la stéréophonie, quant à elle, exploite les différences de temps de propagation ou d'intensité sonore pour positionner les sources sonores entre deux ou plusieurs haut-parleurs, à partir des différences interaurales de temps et d'intensité qui définissent les critères perceptifs de localisation auditive dans un plan sensiblement horizontal.
Les techniques binaurales, enfin, ont pour objet de reconstruire le champ acoustique uniquement au voisinage des oreilles de l'auditeur, de façon que les tympans de ce dernier perçoivent un champ acoustique sensiblement identique à celui qui aurait été engendré par des sources réelles.
La présente invention a pour objet de remédier aux inconvénients des techniques de l'art antérieur, afin de permettre l'application la plus large des techniques de spatialisation à tout signal sonore monophonique et/ou stéréophonique, ou même à un signal sonore plus complexe.
En particulier, la présente invention a pour objet un procédé de spatialisation d'un signal sonore remarquable en ce qu'il consiste au moins à subdiviser ce signal sonore en trames successives, analyser les trames du signal sonore par blocs de trames pour déterminer au moins un paramètre spectral et/ou physiologique de ce signal sonore dans chaque trame, affecter à chaque trame un index représentatif d'au moins ce paramètre spectral et/ou physiologique, pour engendrer une suite de trames classifiées et soumettre chaque trame ou groupe de trames classifiées, affectées d'un même index, à un traitement de spatialisation, fonction de la valeur de cet index affecté à chaque trame.
La présente invention a en outre pour objet un système de spatialisation d'un signal sonore remarquable en ce qu'il comporte au moins, en combinaison, un module d'analyse de ce signal sonore en trames successives, pour déterminer et affecter à chaque trame successive un index représentatif d'au moins un paramètre spectral et/ou physiologique dudit signal sonore dans chaque trame, pour engendrer une suite d'index de trames classifiées et un module de traitement de chaque trame ou groupe de trames du signal sonore, classifiées et affectées d'un même index, selon un traitement de spatialisation, fonction de la valeur de l'index affecté. L'invention trouve application à l'industrie de l'électronique de traitement des signaux sonores, en particulier de signaux stéréo- ou mono-phoniques, à l'enregistrement de phonogrammes et/ou de vidéogrammes, à l'industrie de la téléphonie fixe ou mobile, à la communication vocale et/ou à la transmission de signaux de parole sur le réseau IP. Elle sera mieux comprise à la lecture de la description et à l'observation des dessins ci-après dans lesquels :
- la figure la représente, à titre purement illustratif, un organigramme des étapes essentielles de mise en œuvre du procédé objet de la présente invention ; - la figure Ib représente, à titre purement illustratif, un mode de classification de trames acoustiques selon des classes acoustiques, conformément à un aspect remarquable du procédé, objet de la présente invention ;
- les figures 2a et 2b représentent, à titre illustratif, une variante non limitative de mise en œuvre du procédé objet de la présente invention appliqué en mode différé, soit à l'enregistrement et la restitution, soit à la diffusion hors ligne partiel, ou encore à la communication en ligne en temps réel de phonogrammes et/ou à la partie sonore de vidéogrammes, conformément au procédé objet de la présente invention ;
- la figure 3 a représente à titre illustratif, un système de spatialisation d'un signal sonore, conforme à l'objet de la présente invention, opérant en mode diffusion hors ligne partiel ;
- la figure 3b représente à titre illustratif un système de spatialisation d'un signal sonore en mode communication en ligne, plus particulièrement destiné à des appareils du type combiné téléphonique ou autre.
Une description plus détaillée du procédé de spatialisation d'un signal sonore en fonction des qualités intrinsèques de ce signal, conforme à l'objet de la présente invention, sera maintenant donnée en liaison avec la figure la et la figure Ib.
En référence à la figure la, on indique que le procédé objet de l'invention est mis en œuvre sur un signal sonore SS, ce Signal Sonore correspondant par exemple à un signal numérique, audionumérique, de parole ou de téléphonie par exemple. Le procédé objet de l'invention consiste, en premier lieu, en une étape A à subdiviser le signal sonore SS en trames successives. L'opération de subdivision est notée
SS → [TSSiJ .
L'étape de subdivision précitée peut être exécutée de manière classique en subdivisant le signal en trames successives de durée comprise entre 10 à 20 millisecondes, par exemple, typiquement 16 millisecondes. Un échantillonnage du signal sonore est ainsi effectué pour obtenir une succession de trames jointives par exemple, i désignant le rang de la trame. Les valeurs typiques sont des trames d'une durée de 32 millisecondes, calculées toutes les 16 millisecondes, donc avec un recouvrement de 16 millisecondes. L'étape A est suivie d'une étape B consistant à analyser un bloc de trames du signal sonore TSS, pour déterminer au moins un paramètre spectral et/ou physiologique du signal sonore dans chaque trame.
L'opération de l'étape B consistant à analyser chaque trame est représentée par la relation
Figure imgf000006_0001
où [TSSi +
Figure imgf000006_0002
désigne le bloc de trames et
[PspjJo désigne un ensemble de paramètres spectraux et/ou physiologiques issus de l'analyse.
Par paramètre spectral et/ou physiologique du signal sonore, on indique que ce ou ces paramètres peuvent correspondre par exemple à un paramètre de fréquence pour un signal musical, un formant pour un signal de parole ou autre, ainsi qu'il sera décrit ultérieurement dans la description. On comprend en particulier que plusieurs paramètres significatifs peuvent être associés à chaque trame en particulier lorsque le signal sonore
SS correspond à un signal comportant à la fois de la musique et des paroles de chant par exemple, ou dans d'autres situations. Le nombre de paramètres spectral et/ou physiologique affecté à chaque trame n'est pas limitatif, ainsi qu'il sera décrit ultérieurement dans la description.
L'étape B est alors suivie d'une étape C consistant à affecter à chaque trame TSSj un index représentatif d'au moins un paramètre spectral ou physiologique pour engendrer une suite de trames classifiées.
Sur la figure la, l'étape C d'affectation d'un index est représentée par la relation symbolique
[PspJo -> TSSio.k) . L'opération B d'analyse de trames et C d'affectation d'index travaillent sur un . bloc de trames i-K_avant, i+K_après. Cette définition du bloc est générique et le mode en ligne se résume à K_après =0.
D'une manière générale, et conformément à un aspect remarquable du procédé, objet de la présente invention, la notion d'index affecté à chaque trame correspond par exemple à un index j affecté d'un sous-index k, le sous-index k permettant, par exemple, de préciser des variantes de classification pour la classification principale j affectée à chaque trame.
L'étape C permet ainsi d'obtenir une classification fine de chaque trame en fonction du ou des paramètres spectral et/ou physiologique du signal sonore SS dans la trame considérée TSSi.
L'étape C est alors suivie d'une étape D de spatialisation proprement dite, cette étape consistant à soumettre chaque trame ou groupe de trame classifiée affecté d'un même index et noté
Figure imgf000007_0001
à un même traitement de spatialisation fonction de la valeur de l'index précité affectée à la trame considérée.
A l'étape B de la figure la l'opération de spatialisation est notée par la relation symbolique
Sj, k(TSSio. k)). I
Dans la relation précédente, on indique que Sj,k(.) indique le traitement de spatialisation spécifique appliqué à toute trame de rang i à laquelle a été affecté l'index j,k ou à tout groupe de trame correspondant. On comprend en particulier que pour une durée de trame typiquement égale à 16 millisecondes par exemple, une succession de trames peut bien entendu être affectée du même index j,k.
Bien entendu, l'étape D de la figure la est suivie d'une étape E consistant à comparer la valeur du rang i de la trame considérée TSSj à une valeur maximale I de la décomposition ou subdivision en trames.
Sur réponse négative au test de l'étape E, le rang de la trame considérée i est incrémenté à la valeur i+1 à l'étape F pour retourner à l'étape A et poursuivre le processus tant qu'il existe une trame non soumise au processus de subdivision de l'étape A pour assurer le traitement complet du signal sonore SS. D'une manière plus spécifique on indique que le procédé objet de l'invention en référence à la figure Ib consiste à classifier chaque trame ou groupe de trames selon une pluralité de classes acoustiques notées Cj.
En référence à la figure précitée, chaque classe acoustique Cj telle que Musique, Parole/Type de locuteur, Brouhaha, ou Silence par exemple, peut être associée à une valeur d'index j prenant la valeur 0, 1, 2, 3 correspondante pour les classes acoustiques précitées de manière non limitative.
En outre, une valeur de sous-index k peut être associée à la valeur d'index j ainsi que représenté en figure Ib pour la musique, k pouvant prendre, avec la valeur j=0, les valeurs 1, 2 ou 3 par exemple, pour musique classique, musique d'ambiance ou autre par exemple.
- la classe acoustique Parole/Type de locuteur peut être associée à la valeur d'index j=l et aux valeurs de sous-index 2, 3, 4, les valeurs de sous-index précitées pouvant permettre par exemple avantageusement de discriminer le locuteur ; - la classe acoustique Brouhaha peut être associée à la valeur d'index j=2 des valeurs de sous-index 2, 4 et 5 par exemple, pouvant correspondre à différents environnements tels que brouhaha urbain, industriels ou autres par exemple ;
— la classe acoustique de Silence peut être associée à la valeur d'index j=3, des valeurs de sous-index 4, 5 et 6 par exemple pouvant avantageusement être prévues pour correspondre soit à un silence absolu, soit à des bruits spécifiques tels que craquements, grincements ou autres, lesquels peuvent témoigner de différentes ambiances de silence par exemple.
D'une manière générale, on rappelle que la valeur de l'index j, 0, 1, 2 ou 3 est une valeur obtenue par analyse à partir des paramètres spectraux et/ou physiologiques du signal sonore SS dans chaque trame et que la valeur de sous-index k associée à chaque valeur d'index peut être une valeur arbitraire ou correspondant à une qualité particulière du signal sonore.
En ce qui concerne, de manière plus spécifique la classe acoustique relative à la
Parole/Type de locuteur, pour Cj=I, on indique que l'exécution de la classification de chaque trame ou groupe de trames par type de locuteur, c'est-à-dire choix du locuteur 2, 3 ou 4 lorsque le signal de parole correspondant à Cj=I est détecté, consiste à discriminer le changement de locuteur parmi une pluralité quelconque de locuteurs dans le signal sonore par exemple. La technique mise en œuvre pour traiter des documents a priori inconnus est la suivante : - on détecte un changement de locuteur (rupture dans le signal d'un indice particulier) ;
- le locuteur après changement est comparé à l'ensemble des locuteurs déjà identifiés dans le document et il est soit reconnu comme l'un d'eux, soit considéré comme un nouveau locuteur et vient donc augmenter la taille du "dictionnaire de références" des locuteurs pour ce document ou signal sonore.
Pour une description plus détaillée d'un mode opératoire permettant de discriminer le type de locuteur, dans un signal de parole ou un signal audio comportant un signal de parole, on pourra utilement se reporter à la publication intitulée "Segmentation et indexation par locuteurs d'un document audio" publiée par Perrine Delacourt, Institut EURECOM, 2229 route de Crêtes, 0.6904 Sophia Antipolis, France et éditée par RJC en 1999.
En ce qui concerne l'opération de spatialisation exécutée à l'étape D pour chacune des trames successives classifiées on indique que le processus de spatialisation appliqué à chaque trame classifiée peut être choisi parmi une pluralité de traitements de spatialisation tels que la réverbération, l'atténuation, le changement de fréquence fondamentale, la coloration par filtrage harmonique, le retard par exemple ou encore les techniques d'holophonie, de stéréophonie, binaurales ou autres. On comprend en effet que pour toute valeur d'index j et de sous-index k affectée à chaque trame TSSj ou groupe de trames peut ainsi être choisi, en fonction de la valeur d'index et de sous index précitées un traitement de spatialisation spécifique et en particulier le traitement le mieux adapté en fonction de l'effet recherché.
A titre d'exemple non limitatif, lors d'une opération de spatialisation d'un signal de parole et en particulier pour une discrimination par type de locuteur, on indique que le traitement peut consister à appliquer un effet dit "fun" par changement du timbre de la voix, par exemple, pour un ou plusieurs locuteurs du signal sonore SS. On comprend ainsi que le procédé objet de l'invention permet d'effectuer des rendus sonores différenciés selon les valeurs d'index précitées et en particulier des classes acoustiques Cj définies précédemment dans la description.
Le procédé objet de l'invention permet ainsi d'appliquer automatiquement des rendus sonores ou des positions sonores différenciés sur des documents sonores quelconques qui se traduisent par des signaux sonores SS pour lesquels on ne dispose d'aucune information annexe ou pour lesquels on ne contrôle pas la prise de son.
Selon un aspect particulièrement remarquable du procédé objet de l'invention, ce dernier permet en outre de réduire la charge ou le débit des réseaux ou le spectre des ondes radio, car, alors que la transmission du signal sonore SS peut être effectuée sur un signal monophonique par exemple, il. est alors tout à fait envisageable d'exécuter le processus de spatialisation à la réception de ce signal et donc après transmission a minima du point de vue charge ou débit du réseau de transmission.
Différentes variantes de mise en œuvre du procédé objet de la présente invention seront maintenant décrites en liaison avec la figure 2a et 2b.
En référence à la figure 2a, on indique que le procédé objet de l'invention peut avantageusement être exécuté en mode hors ligne en temps différé.
Dans cette situation, il consiste au moins à exécuter les opérations A de subdivision en trames B d'analyse des trames et d'affectation d'index pour engendrer une suite de trames classifiées, puis à effectuer un enregistrement sur un support d'enregistrement d'au moins la suite d'index affectée au signal sonore subdivisé en trames et du signal sonore SS ou des trames successives représentatives de ce dernier.
Sur la figure 2a, les étapes A, B représentent les mêmes étapes que celles portant la même référence à la figure la. L'étape d'affectation d'index peut alors être subdivisée en une étape Co correspondant à choisir les index j et sous-index k correspondants, affectés à chaque trame TSSj, l'étape Co étant suivie d'une étape C1 consistant à comparer le rang de la trame i à la valeur I finale représentative du nombre de trames. Sur réponse négative au test C1, le rang de la trame est incrémentée par la relation i=i+l à l'étape C2 pour un retour à l'analyse des trames à l'étape B et poursuite du processus tant que el rang de la trame n'a pas atteint la valeur I. Au contraire, sur réponse positive au test de l'étape Ci, on procède alors à un enregistrement C3 de l'ensemble des trames notées [TSSiJ, et d'une suite d'index notée
Figure imgf000011_0001
La notion d'enregistrement exécuté à l'étape C3 s'entend d'un enregistrement sur tout support de mémorisation tel que par exemple, une mémoire non volatile, une mémoire permanente, un disque optique d'enregistrement de type CD ou DVD par exemple.
La mise en œuvre en mode hors ligne en temps différé du procédé objet de l'invention consiste alors, ainsi que représenté en figure 2b à partir de l'enregistrement dont on dispose, obtenu à l'étape C3, à lire le support d'enregistrement correspondant, comportant au moins la suite d'index affectée au. signal sonore subdivisé en trames et le signal sonore ou en tout cas la suite de trames représentatives de ce dernier en une étape Do représentée sur la figure 2b.
L'étape de lecture D0 est alors suivie d'une étape D1 consistant à appliquer au signal sonore et à chaque trame courante de ce signal sonore, un traitement de spatialisation fonction de l'index affecté à la trame courante du signal sonore selon la relation symbolique de l'étape D de la figure la.
On procède ainsi à la restitution du signal sonore spatialisé conformément au procédé objet de la présente invention. L'étape de spatialisation et de restitution Di est alors suivie d'une étape de test D2 consistant à comparer la valeur du rang de la trame i à la valeur maximale I. Sur réponse négative au test D2, l'on procède à l'incrémentation du rang de trame i=i+l et à un retour à la lecture à l'étape Do de la trame suivante tant que la valeur I du rang de trame n'est pas atteinte. Le procédé objet de la présente invention peut également être mis en œuvre en mode diffusion hors ligne en décalage temporel restreint, n'excédant pas la durée d'un nombre de quelques trames, par analyse et classification de chaque trame successive et traitement de spatialisation successif de chaque trame en fonction de l'index affecté.
Dans cette situation, on comprend, par exemple, que l'opération d'enregistrement telle que décrite en liaison avec la figure 2a à l'étape C3 peut être lancée. La mémorisation intervenant par exemple sur une mémoire électronique adressable et l'opération de lecture et de spatialisation pour restitution du signal sonore spatialisé représenté en figure 2b pouvant intervenir après obtention de quelques trames par lecture décalée de la mémoire électronique précitée, la lecture intervenant de manière synchrone mais décalée d'une durée de quelques trames par exemple.
Typiquement, quel que soit le système de rendu sonore, le système s'adapte à l'enregistrement.
En outre, le procédé objet de la présente invention, tel qu'illustré selon la mise en œuvre des figures 2a et 2b peut être exécuté en mode communication en ligne en décalage temporel minimum, n'excédant pas la durée d'une trame, par analyse et classification et traitement de spatialisation de chaque trame du signal sonore retardé au maximum d'une durée de trame.
Dans cette situation, on comprend également que les opérations des figures 2a et 2b peuvent être exécutées avec mémorisation dans une mémoire telle qu'une mémoire vive par exemple, le décalage temporel pouvant être réduit au temps de calcul de l'opération d'analyse de trame et d'affectation d'index pour une trame courante, c'est-à-dire les étape B et Co de la figure 2a, ce temps de calcul pouvant bien entendu, être rendu très inférieur à la durée d'une trame. Le mode opératoire précité pour une exécution en mode communication en ligne du procédé objet de la présente invention peut avantageusement être utilisé pour un traitement de spatialisation d'une communication téléphonique par exemple, sur un signal de parole transmis sur un réseau de téléphonie fixe ou mobile par exemple. Il peut également être mis en œuvre en mode de communication en ligne pour la transmission d'un signal de parole en réseau IP -par exemple.
Une description plus détaillée d'un système de spatialisation d'un signal sonore conforme à l'objet de la présente invention sera maintenant donnée en liaison avec les figures 3a et 3b.
D'une manière générale, en référence aux figures précitées, le système objet de l'invention comporte au moins en combinaison un module 1 d'analyse du signal sonore en trames successives pour déterminer et affecter à chaque trame successive un index représentatif d'au moins un paramètre spectral et/ou physiologique du signal sonore dans chaque trame pour engendrer ainsi une suite d'index de trames classifïées. Sur les figures 3 a et 3b, la suite d'index de trames classifiées est représentée par la relation
Figure imgf000013_0001
En référence aux figures 3a et 3b précitées, le système objet de l'invention comporte en outre un module 2 de traitement de chaque trame ou groupe de trames du signal sonore SS et en particulier des trames classifiées et affectées d'un même index selon un même traitement de spatialisation, fonction de la valeur de l'index affecté et, ainsi que décrit précédemment dans la description, du sous-index k associé à toute valeur d'index j représentative d'une classe acoustique. En référence aux figures 3a et 3b, on indique que le module de traitement par spatialisation 2 est en mesure, à partir de la suite d'index de trames classifiées précitées et, bien entendu, de la suite des trames dont il dispose, d'appliquer le traitement de spatialisation et de restituer le signal sonore spatialisé sur un ensemble de hauts parleurs notés HP sur les figures 3 a et 3b. De manière plus spécifique, en référence à la figure 3 a, on indique que pour un traitement du signal sonore SS en mode diffusion, c'est-à-dire hors ligne partiel, le module d'analyse 1 et le module 2 de traitement par spatialisation sont connectés en cascade. Dans cette situation, le module d'analyse 1 délivre au module 2 de traitement de spatialisation un signal représentatif de la suite d'index ainsi qu'indiqué précédemment, ainsi que soit le signal sonore SS, soit la suite de trames [TSSi]J décalé(e) temporeïlement d'une durée sensiblement égale à une pluralité de durée de trames au module 2 de traitement par spatialisation.
Au contraire, ainsi que représenté en figure 3b, pour un traitement du signal sonore SS en mode communication en ligne, le module 1 d'analyse et le module 2 de traitement sont connectés sensiblement en parallèle ainsi que représenté sur la figure précitée, pour exécuter chacun une subdivision en trames en parallèle du signal sonore.
Dans cette situation, le module 1 d'analyse et le modèle 2 de traitement de spatialisation peuvent avantageusement comporter chacun un module de subdivision en trames, portant la référence Io respectivement 20, lesquels sont synchronisés par un signal de synchronisation Sy échangés par exemple entre le module 1 d'analyse et le module 2 de traitement par spatialisation.
Dans le cas de la figure 3b, de même que dans le cas de la figure 3a, le module 1 d'analyse comporte en outre un module 11 exécutant les opérations B et C de la figure la, c'est-à-dire permettant l'analyse des trames et l'affectation d'index pour engendrer la suite de trames classifiées et, en particulier, la suite d'index précédemment décrite.
Le module 2 de traitement de spatialisation comporte un module de traitement assurant l'opération de spatialisation proprement dite sur la série de trames classifiées.
Dans le cas de la figure 3b, on indique que le traitement de module 1 d'analyse et, en particulier, le module I1 de ce dernier peut être très inférieur à celui d'une durée de trame, ce qui permet d'assurer un mode opératoire du système représenté en figure 3b avec un temps de traitement très inférieur à une durée de trame. Le système correspondant apparaît alors particulièrement bien adapté à un traitement du signal sonore SS en mode communication en ligne dans les conditions indiquées précédemment dans la description. Bien entendu, le procédé objet de la présente invention et le système correspondant tel que décrit en figures 3 a et 3b peuvent être mis en œuvre à partir de modules logiciels correspondants et en particulier d'un programme enregistré sur un support de mémorisation et exécuté par un ordinateur.
C'est en particulier en ce qui concerne les modules Io du module 1 d'analyse représenté en figure 3a ou 3b, ce module permettant d'exécuter la subdivision en trames ainsi que de modules logiciels permettant l'analyse de chaque trame successive du signal sonore pour déterminer au moins un paramètre spectral et/ou physiologique du signal sonore dans chaque trame, puis d'affecter à chaque trame l'index représentatif du paramètre spectral et/ou physiologique pour engendrer une suite de trames classifiées, c'est-à-dire le signal correspondant à la suite d'index précédemment décrit dans la description. Ces opérations sont exécutées par un module logiciel I1 implanté sur le module 1 d'analyse représenté en figure 3a ou 3b.
Il en est de même pour ce qui concerne le module de spatialisation 2\, lequel permet d'exécuter et soumettre chaque trame au groupe de trames classifiées affectées d'un même index à un traitement de spatialisation en fonction de la valeur de l'index affecté à chaque trame.
Pour ce qui concerne le mode de mise en œuvre du procédé objet de l'invention, représenté en figure , 2a ou 2b, on indique, en particulier, que le procédé objet de l'invention peut être mis en œuvre sous forme totalement logicielle, en particulier pour le traitement de spatialisation de signaux sonores transmis en liaison avec des pages html.
Dans ce cas, le mode opératoire est celui représenté en figure la.. Le signal sonore SS est alors soumis successivement aux étapes A, B, C, D et E de la figure précitée sur un terminal à partir d'un signal sonore SS transmis par intermédiaire de paquets IP sans aucun traitement préalable exécuté au niveau du serveur transmettant les pages html correspondantes. Dans ce cas, le mode opératoire correspond à un traitement en ligne avec un retard de traitement correspondant au plus à une durée de trame.

Claims

REVENDICATIONS
1. Procédé de spatialisation d'un signal sonore, caractérisé en ce qu'il consiste au moins à : - subdiviser ledit signal sonore en trames successives ; analyser les trames dudit signal sonore par blocs de trames pour déterminer au moins un paramètre spectral et/ou physiologique dudit signal sonore dans chaque trame ; affecter à chaque trame un index représentatif dudit au moins un paramètre spectral et/ou physiologique, pour engendrer une suite de trames classifîées ; soumettre chaque trame, ou groupe de trames, classifiées, affectée d'un même index, à un traitement de spatialisation, fonction de la valeur dudit index affecté à chaque trame.
2. Procédé selon la revendication 1, caractérisé en ce que celui-ci consiste à classifier chaque trame ou groupe de trames selon une pluralité de classes acoustiques, chacune associée à un index représentatif d'au moins un signal sonore de musique, parole, type de locuteur, brouhaha, silence.
3. Procédé selon la revendication 2, caractérisé en ce que, pour une classification de chaque trame ou groupe de trames par type de locuteur, celui-ci consiste à discriminer le changement de locuteur parmi une pluralité quelconque de locuteurs dans ledit signal sonore.
4. Procédé selon l'une des revendications 1 à 3, caractérisé en ce que ledit même traitement de spatialisation distinct est choisi parmi une pluralité de traitements de spatialisation tels que la réverbération, l'atténuation, le changement de fréquence fondamentale, la coloration par filtrage harmonique, le retard, ou encore les techniques d'holophonie, de stéréophonie, les techniques binaurales.
5. Procédé selon l'une des revendications précédentes, caractérisé en ce que celui-ci est exécuté en mode hors ligne en temps différé, ledit procédé consistant au moins, suite aux étapes d'analyse et d'affectation d'index pour engendrer une suite de trames classifiées, à enregistrer sur un support d'enregistrement au moins la suite d'index affectés au signal sonore subdivisé en trames et ledit signal sonore.
6. Procédé selon la revendication 5, caractérisé en ce que celui-ci est exécuté en mode hors ligne en temps différé, ledit procédé consistant au moins à : - lire un support d'enregistrement comportant au moins ladite suite d'index affectée au signal sonore subdivisé en trames et ledit signal sonore ; appliquer audit signal sonore et à chaque trame courante de ce signal sonore un traitement de spatialisation, fonction de l'index affecté à la trame courante dudit signal sonore.
7. Procédé selon l'une des revendications 1 à 4, caractérisé en ce que celui-ci est exécuté en mode diffusion hors ligne partiel en décalage temporel restreint, n'excédant pas la durée d'un nombre de quelques trames par analyse et classification de chaque trame successive et traitement de spatialisation successif de chaque trame en fonction de l'index affecté.
8. Procédé selon l'une des revendications 1 à 4, caractérisé en ce que celui-ci est exécuté en mode communication en ligne, en décalage temporel minimum n'excédant pas la durée d'une trame, par analyse, classification et traitement de spatialisation de chaque trame du signal sonore retardé au maximum d'une durée de trame.
9. Système de spatialisation d'un signal sonore, caractérisé en ce qu'il comporte au moins, en combinaison : des moyens d'analyse dudit signal sonore en trames successives, pour déterminer et affecter à chaque trame successive un index représentatif d'au moins un paramètre spectral et/ou physiologique dudit signal sonore dans chaque trame, pour engendrer une suite d'index de trames classifiées ; - des moyens de traitement de chaque trame, ou groupe de trames, du signal sonore, classifiées et affectées d'un, même index selon un traitement de spatialisation, fonction de la valeur dudit index affecté.
10. Système selon la revendication 9, caractérisé en ce que, pour un traitement dudit signal sonore en mode diffusion, hors ligne partiel, lesdits moyens d'analyse et lesdits moyens de traitement sont connectés en cascade, lesdits moyens d'analyse délivrant auxdits moyens de traitement un signal représentatif d'une suite d'index et un signal sonore décalés temporellement d'une durée sensiblement égale à une pluralité de durées de trame auxdits moyens de traitement par spatialisation.
11. Système selon la revendication 9, caractérisé en ce que, pour un traitement dudit signal sonore en mode communication en ligne, lesdits moyens d'analyse et lesdits moyens de traitement sont connectés en parallèle pour exécuter chacun une subdivision en trames en parallèle dudit signal sonore, lesdits moyens d'analyse délivrant auxdits moyens de traitement une suite d'index de trames classifiées, lesdits moyens de traitement procédant à un traitement de spatialisation de chaque trame, fonction de la valeur dudit index affecté à chaque trame avec un décalage temporel sur le signal sonore n'excédant pas une durée de trame.
12. Enregistrement sur un support d'enregistrement d'un signal sonore, caractérisé en ce que, outre un signal sonore enregistré sous forme d'un ensemble de trames, celui-ci comporte une suite d'index, chaque index étant représentatif d'au moins un paramètre spectral et/ou physiologique dudit signal sonore dans une trame.
13. Produit de programme enregistré sur un support de mémorisation pour exécution par un ordinateur, caractérisé en ce que, lors de l'exécution par un ordinateur, celui-ci permet au moins de : subdiviser un signal sonore en trames successives ; - analyser chaque trame successive dudit signal sonore pour déterminer au moins un paramètre spectral et/ou physiologique dudit signal sonore, dans chaque trame ; affecter à chaque trame un index représentatif dudit au moins un paramètre spectral et/ou physiologique, pour engendrer une suite de trames classifiées ; - soumettre chaque trame, ou groupe de trames, classifiée, affectée d'un même index, à un même traitement de spatialisation, fonction de la valeur dudit index affecté à chaque trame.
PCT/FR2006/000580 2005-03-15 2006-03-15 Procede et systeme de spatialisation d'un signal sonore en fonction des qualites intrinseques de ce dernier WO2006097633A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP06743580A EP1869949A1 (fr) 2005-03-15 2006-03-15 Procede et systeme de spatialisation d'un signal sonore en fonction des qualites intrinseques de ce dernier

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0502556 2005-03-15
FR0502556 2005-03-15

Publications (1)

Publication Number Publication Date
WO2006097633A1 true WO2006097633A1 (fr) 2006-09-21

Family

ID=35229612

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2006/000580 WO2006097633A1 (fr) 2005-03-15 2006-03-15 Procede et systeme de spatialisation d'un signal sonore en fonction des qualites intrinseques de ce dernier

Country Status (2)

Country Link
EP (1) EP1869949A1 (fr)
WO (1) WO2006097633A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2548491A1 (fr) * 1983-06-29 1985-01-04 Tournier Sa Editions Gerard Procede et dispositif de production d'effet spatial pour l'ecoute d'emissions ou d'enregistrements monophoniques
US5864080A (en) * 1995-11-22 1999-01-26 Invision Interactive, Inc. Software sound synthesis system
US6570991B1 (en) 1996-12-18 2003-05-27 Interval Research Corporation Multi-feature speech/music discrimination system
US20040165730A1 (en) * 2001-04-13 2004-08-26 Crockett Brett G Segmenting audio signals into auditory events

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2548491A1 (fr) * 1983-06-29 1985-01-04 Tournier Sa Editions Gerard Procede et dispositif de production d'effet spatial pour l'ecoute d'emissions ou d'enregistrements monophoniques
US5864080A (en) * 1995-11-22 1999-01-26 Invision Interactive, Inc. Software sound synthesis system
US6570991B1 (en) 1996-12-18 2003-05-27 Interval Research Corporation Multi-feature speech/music discrimination system
US20040165730A1 (en) * 2001-04-13 2004-08-26 Crockett Brett G Segmenting audio signals into auditory events

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
VERCOE B.L., GARDNER G., SCHEIRER E.D., PROCEEDINGS OF THE IEEE, vol. 86, no. 5, May 1998 (1998-05-01), pages 922 - 940, XP011044023, Retrieved from the Internet <URL:http://ieeexplore.ieee.org/iel3/5/14574/00664280.pdf?tp=&arnumber=664280&isnumber=14574> [retrieved on 20051114] *

Also Published As

Publication number Publication date
EP1869949A1 (fr) 2007-12-26

Similar Documents

Publication Publication Date Title
EP1999998B1 (fr) Procede de synthese binaurale prenant en compte un effet de salle
EP1992198B1 (fr) Optimisation d&#39;une spatialisation sonore binaurale a partir d&#39;un encodage multicanal
EP1836876B1 (fr) Procédé et dispositif d&#39;individualisation de hrtfs par modélisation
EP2000002B1 (fr) Procede et dispositif de spatialisation sonore binaurale efficace dans le domaine transforme
EP1600042B1 (fr) Procede de traitement de donnees sonores compressees, pour spatialisation
EP1563485B1 (fr) Procede de traitement de donnees sonores et dispositif d&#39;acquisition sonore mettant en oeuvre ce procede
WO2011104463A1 (fr) Compression de flux audio multicanal
EP1886535B1 (fr) Procede pour produire une pluralite de signaux temporels
FR2995754A1 (fr) Calibration optimisee d&#39;un systeme de restitution sonore multi haut-parleurs
EP2005420A1 (fr) Dispositif et procede de codage par analyse en composante principale d&#39;un signal audio multi-canal
EP3475943B1 (fr) Procede de conversion et d&#39;encodage stereophonique d&#39;un signal audio tridimensionnel
EP1695335A1 (fr) Procede de synthese et de spatialisation sonores
EP3079074A1 (fr) Procédé de traitement de données pour l&#39;estimation de paramètres de mixage de signaux audio, procédé de mixage, dispositifs, et programmes d&#39;ordinateurs associés
EP1479266A2 (fr) Procede et dispositif de pilotage d&#39;un ensemble de restitution d&#39;un champ acoustique
FR2776461A1 (fr) Procede de perfectionnement de reproduction sonore tridimensionnelle
EP3400599A1 (fr) Encodeur ambisonique ameliore d&#39;une source sonore a pluralite de reflexions
EP3025514B1 (fr) Spatialisation sonore avec effet de salle
EP2009891A2 (fr) Transmission de signal audio dans un système de conference audio immersive
US20220101821A1 (en) Device, method and computer program for blind source separation and remixing
EP1994526B1 (fr) Synthese et spatialisation sonores conjointes
WO2006097633A1 (fr) Procede et systeme de spatialisation d&#39;un signal sonore en fonction des qualites intrinseques de ce dernier
EP3108670B1 (fr) Procédé et dispositif de restitution d&#39;un signal audio multicanal dans une zone d&#39;écoute
WO2023156578A1 (fr) Procédé de traitement d&#39;un signal sonore numérique pour émulation de disques vinyle
CN118038888A (zh) 对白清晰度的确定方法、装置、电子设备和存储介质
EP3934282A1 (fr) Procédé de conversion d&#39;un premier ensemble de signaux représentatifs d&#39;un champ sonore en un second ensemble de signaux et dispositif électronique associé

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006743580

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

WWW Wipo information: withdrawn in national office

Country of ref document: RU

WWP Wipo information: published in national office

Ref document number: 2006743580

Country of ref document: EP