FR2847376A1 - Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede - Google Patents
Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede Download PDFInfo
- Publication number
- FR2847376A1 FR2847376A1 FR0214444A FR0214444A FR2847376A1 FR 2847376 A1 FR2847376 A1 FR 2847376A1 FR 0214444 A FR0214444 A FR 0214444A FR 0214444 A FR0214444 A FR 0214444A FR 2847376 A1 FR2847376 A1 FR 2847376A1
- Authority
- FR
- France
- Prior art keywords
- distance
- sep
- sound
- components
- desc
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0091—Means for obtaining special acoustic effects
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/11—Application of ambisonics in stereophonic audio systems
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Stereophonic System (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
La présente invention concerne le traitement de données sonores. Selon l'invention :a) on code des signaux représentatifs d'un son se propageant dans l'espace tridimensionnel et issu d'une source située à une première distance (p) d'un point de référence, pour obtenir une représentation du son par des composantes exprimées dans une base d'harmoniques sphériques, d'origine correspondant audit point de référence,b) et on applique à ces composantes une compensation d'un effet de champ proche par un filtrage qui est fonction d'une seconde distance (R) définissant, pour une restitution du son, une distance entre un point de restitution (HPi) et un point (P) de perception auditive où se place généralement un auditeur.
Description
<Desc/Clms Page number 1>
Procédé de traitement de données sonores et dispositif d'acquisition sonore mettant en #uvre ce procédé La présente invention concerne le traitement de données sonores.
Des techniques relatives à la propagation d'une onde sonore dans l'espace tridimensionnel, impliquant notamment une simulation et/ou une restitution sonores spécialisées, mettent en #uvre des procédés de traitement du signal audio appliqués à la simulation de phénomènes acoustiques et psycho-acoustiques. De tels procédés de traitement prévoient un encodage spatial du champ acoustique, sa transmission et sa reproduction spatialisée sur un ensemble de hauts-parleurs ou sur des écouteurs d'un casque stéréophonique.
Parmi les techniques de son spatialisé, on distingue deux catégories de traitements complémentaires l'une de l'autre mais qui sont généralement mise en #uvre, l'une et l'autre, au sein d'un même système.
D'une part, une première catégorie de traitements concerne les procédés de synthèse d'effet de salle, ou plus généralement d'effets environnementaux. A partir d'une description d'une ou plusieurs sources sonores (signal émis, position, orientation, directivité, ou autre) et en se basant sur un modèle d'effet de salle (impliquant une géométrie de salle, ou encore une perception acoustique souhaitée), on calcule et l'on décrit un ensemble de phénomènes acoustiques élémentaires (ondes directes,
<Desc/Clms Page number 2>
réfléchies ou diffractées), ou encore un phénomène acoustique macroscopique (champ réverbéré et diffus), permettant de traduire l'effet spatial au niveau d'un auditeur situé à un point choisi de perception auditive, dans l'espace tridimensionnel. On calcule alors un ensemble de signaux associés typiquement aux réflexions (sources "secondaires", actives par ré-émission d'une onde principale reçue, ayant un attribut de position spatiale) et/ou associés à une réverbération tardive (signaux décorrélés pour un champ diffus).
D'autre part, une seconde catégorie de procédés concerne le rendu positionnel ou directionnel de sources sonores.
Ces procédés sont appliqués à des signaux déterminés par un procédé de la première catégorie décrite ci-avant (impliquant des sources primaires et secondaires) en fonction de la description spatiale (position de la source) qui leur est associée. En particulier, de tels procédés selon cette seconde catégorie permettent d'obtenir des signaux à diffuser sur des hauts-parleurs ou écouteurs, pour finalement donner à un auditeur l'impression auditive de sources sonores placées à des positions respectives prédéterminées, autour de l'auditeur. Les procédés selon cette seconde catégorie sont qualifiés de "créateurs d'images sonores tridimensionnelles", du fait de la répartition dans l'espace tridimensionnel du ressenti de la position des sources par un auditeur. Des procédés selon la seconde catégorie comportent généralement une première étape d'encodage spatial des événements acoustiques élémentaires qui produit une représentation du champ sonore dans
<Desc/Clms Page number 3>
l'espace tridimensionnel. Dans une seconde étape, cette représentation est transmise ou stockée pour un usage différé. Dans une troisième étape, de décodage, les signaux décodés sont délivrés sur des hauts-parleurs ou des écouteurs d'un dispositif de restitution.
La présente invention s'inscrit plutôt dans la seconde catégorie précitée. Elle concerne en particulier l'encodage spatial de sources sonores et une spécification de la représentation sonore tridimensionnelle de ces sources. Elle s'applique aussi bien à un encodage de sources sonores "virtuelles" (applications où des sources sonores sont simulées telles que des jeux, une conférence spatialisée, ou autres), qu'un encodage "acoustique" d'un champ sonore naturel, lors d'une prise de son par un ou plusieurs réseaux tridimensionnels de microphones.
Parmi les techniques envisageables de spatialisation du son, l'approche "ambisonique" est préférée. L'encodage ambisonique, qui sera décrit en détail plus loin, consiste à représenter des signaux relatifs à une ou plusieurs ondes sonores dans une base d'harmoniques sphériques (en coordonnées sphériques impliquant notamment un angle d'élévation et un angle azimutal, caractérisant une direction du ou des sons). Les composantes représentant ces signaux et exprimées dans cette base d'harmoniques sphériques sont aussi fonction, pour les ondes émises en champ proche, d'une distance entre la source sonore émettant ce champ et un point correspondant à l'origine de la base des harmonique sphériques. Plus particulièrement,
<Desc/Clms Page number 4>
cette dépendance de la distance s'exprime en fonction de la fréquence sonore, comme on le verra plus loin.
Cette approche ambisonique offre un grand nombre de fonctionnalités possibles, notamment en terme de simulation de sources virtuelles, et, de manière générale, présente les avantages suivants : - elle traduit, de façon rationnelle, la réalité des phénomènes acoustiques et apporte un rendu auditif spatial réaliste, convaincant et immersif ; - la représentation des phénomènes acoustiques est scalable : elle offre une résolution spatiale qui peut être adaptée à différentes situations. En effet, cette représentation peut être transmise et exploitée en fonction de contraintes de débit lors de la transmission des signaux encodés et/ou de limitations du dispositif de restitution ; - la représentation ambisonique est flexible et il est possible simuler une rotation du champ sonore, ou encore, à la restitution, d'adapter le décodage des signaux ambisoniques à tout dispositif de restitution, de géométries diverses.
Dans l'approche ambisonique connue, l'encodage des sources virtuelles est essentiellement directionnel. Les fonctions d'encodage reviennent à calculer des gains qui dépendent de l'incidence de l'onde sonore exprimée par les fonctions harmoniques sphériques qui dépendent de l'angle d'élévation et de l'angle azimutal en coordonnées sphériques. En particulier, au décodage, on suppose que les hauts-parleurs, à la restitution, sont lointains. Il
<Desc/Clms Page number 5>
en résulte une distorsion (ou une incurvation) de la forme des fronts d'onde reconstruits. En effet, comme indiqué ci-avant, les composantes du signal sonore dans la base des harmoniques sphériques, pour un champ proche, dépendent en fait aussi de la distance de la source et de la fréquence sonore. Plus précisément, ces composantes peuvent s'exprimer mathématiquement sous la forme d'un polynôme dont la variable est inversement proportionnelle à la distance précitée et à la fréquence sonore. Ainsi, les composantes ambisoniques, au sens de leur expression théorique, sont divergentes dans les basses fréquences et, en particulier, tendent vers l'infini quand la fréquence sonore décroît vers zéro, lorsqu'elles représentent un son en champ proche émis par une source située à une distance finie. Ce phénomène mathématique est connu, dans le domaine de la représentation ambisonique, déjà pour l'ordre 1, par le terme de "bass boost", notamment par .
- M.A.GERZON, "General Metatheory of Auditory Localisation", preprint 3306 of the 92nd AES Convention, 1992, page 52.
Ce phénomène devient particulièrement critique pour des ordres d'harmoniques sphériques élevées impliquant des polynômes de puissance élevée.
On connaît par : SONTACCHI et HÔLDRICH, "Further Investigations on 3D Sound Fields using Distance Coding" (Proceedings of the COST G-6 Conference on Digital Audio Effects (DAFX-Ol), Limerick, Irlande, 6-8 Décembre 2001),
<Desc/Clms Page number 6>
une technique pour prendre en compte une incurvation des fronts d'ondes au sein d'une représentation proche d'une représentation ambisonique, dont le principe consiste à : - appliquer un encodage ambisonique (d'ordre élevé) aux signaux issus d'une prise de son virtuelle (simulée), de type WFS (pour "Wave Field Synthesis") ; - et reconstruire le champ acoustique sur une zone d'après ses valeurs sur une frontière de zone, se fondant ainsi sur le principe de HUYGENS-FRESNEL.
Cependant, la technique présentée dans ce document, bien que prometteuse du fait qu'elle utilise une représentation ambisonique à un ordre élevé, pose un certain nombre de problèmes : - les ressources informatiques nécessaires pour le calcul de toutes les surfaces permettant d'appliquer le principe de HUYGENS-FRESNEL, ainsi que les temps de calcul nécessaires, sont excessifs ; - des artefacts de traitement dits d' "aliasing spatial" apparaissent à cause de la distance entre les microphones, à moins de choisir un maillage de microphone virtuels serré dans l'espace, ce qui alourdit les traitements ; - cette technique est difficilement transposable à un cas réel de capteurs à disposer en réseau, en présence d'une source réelle, à l'acquisition ; - à la restitution, la représentation sonore tridimensionnelle est implicitement assujettie à un rayon figé du dispositif de restitution car le décodage ambisonique doit se faire, ici, sur un réseau de hautsparleurs de mêmes dimensions que le réseau de microphones initial, ce document ne proposant aucun moyen d'adapter
<Desc/Clms Page number 7>
l'encodage ou le décodage à d'autres tailles de dispositifs de restitution.
Surtout, ce document présente un réseau horizontal de capteurs, ce qui suppose que les phénomènes acoustiques dont on tient compte, ici, ne se propagent que dans des directions horizontales, ce qui exclut toute autre direction de propagation et qui, donc, ne représente pas la réalité physique d'un champ acoustique ordinaire.
De façon plus générale, les techniques actuelles ne permettent pas de traiter de façon satisfaisante tout type de sources sonores, notamment en champ proche, mais plutôt des sources sonores lointaines (ondes planes), ce qui correspond à une situation restrictive et artificielle dans nombreuses applications.
Un objet de la présente invention est de fournir un procédé pour traiter, par encodage, transmission et restitution, un type quelconque de champ sonore, en particulier l'effet d'une source sonore en champ proche.
Un autre objet de la présente invention est de fournir un procédé permettant l'encodage de sources virtuelles, non seulement en direction, mais aussi en distance, et de définir un décodage adaptable à un dispositif de restitution quelconque.
Un autre objet de la présente invention est de fournir un procédé de traitement robuste pour des sons de toutes fréquences sonores (y compris les basses fréquences),
<Desc/Clms Page number 8>
notamment pour la prise de son de champs acoustiques naturels à l'aide de réseaux tridimensionnels de microphones.
A cet effet, la présente invention propose un procédé de traitement de données sonores, dans lequel : a) on code des signaux représentatifs d'au moins un son se propageant dans l'espace tridimensionnel et issu d'une source située à une première distance d'un point de référence, pour obtenir une représentation du son par des composantes exprimées dans une base d'harmoniques sphériques, d'origine correspondant audit point de référence, et b) on applique auxdites composantes une compensation d'un effet de champ proche par un filtrage qui est fonction d'une seconde distance définissant sensiblement, pour une restitution du son par un dispositif de restitution, une distance entre un point de restitution et un point de perception auditive.
Dans un premier mode de réalisation, ladite source étant lointaine du point de référence, - on obtient des composantes d'ordres successifs m pour la représentation du son dans ladite base d'harmoniques sphériques, et - on applique un filtre dont les coefficients, appliqués chacun à une composante d'ordre m, s'expriment analytiquement sous la forme de l'inverse d'un polynôme de puissance m, dont la variable est inversement proportionnelle à la fréquence sonore et à ladite seconde
<Desc/Clms Page number 9>
distance, pour compenser un effet de champ proche au niveau du dispositif de restitution.
Dans un second mode de réalisation, ladite source étant une source virtuelle prévue à ladite première distance, - on obtient des composantes d'ordres successifs m pour la représentation du son dans ladite base d'harmoniques sphériques, et - on applique un filtre global dont les coefficients, appliqués chacun à une composante d'ordre m, s'expriment analytiquement sous la forme d'une fraction, dont : - le numérateur est un polynôme de puissance m, dont la variable est inversement proportionnelle à la fréquence sonore et à ladite première distance, pour simuler un effet de champ proche de la source virtuelle, et - le dénominateur est un polynôme de puissance m, dont la variable est inversement proportionnelle à la fréquence sonore et à ladite seconde distance, pour compenser l'effet du champ proche de la source virtuelle dans les basses fréquences sonores.
Préférentiellement, on transmet au dispositif de restitution les données codées et filtrées aux étapes a) et b) avec un paramètre représentatif de ladite seconde distance.
En complément ou en variante, le dispositif de restitution comportant des moyens de lecture d'un support mémoire, on mémorise sur un support mémoire destiné à être lu par le dispositif de restitution les données codées et filtrées
<Desc/Clms Page number 10>
aux étapes a) et b) avec un paramètre représentatif de ladite seconde distance.
Avantageusement, préalablement à une restitution sonore par un dispositif de restitution comportant une pluralité de hauts-parleurs disposés à une troisième distance dudit point de perception auditive, on applique aux données codées et filtrées un filtre d'adaptation dont les coefficients sont fonction desdites seconde et troisième distances.
Dans une réalisation particulière, les coefficients de ce filtre d'adaptation, appliqués chacun à une composante d'ordre m, s'expriment analytiquement sous la forme d'une fraction, dont : - le numérateur est un polynôme de puissance m, dont la variable est inversement proportionnelle à la fréquence sonore et à ladite seconde distance, - et le dénominateur est un polynôme de puissance m, dont la variable est inversement proportionnelle à la fréquence sonore et à ladite troisième distance.
Avantageusement, pour la mise en #uvre de l'étape b), on prévoit : - pour des composantes d'ordre m pair, des filtres audionumériques sous la forme d'une cascade de cellules d'ordre deux ; et - pour des composantes d'ordre m impair, des filtres audionumériques sous la forme d'une cascade de cellules d'ordre deux et une cellule supplémentaire d'ordre un.
<Desc/Clms Page number 11>
Dans cette réalisation, les coefficients d'un filtre audionumérique, pour une composante d'ordre m, sont définis à partir des valeurs numériques des racines desdits polynômes de puissance m.
Dans une réalisation particulière, les polynômes précités sont des polynômes de Bessel.
A l'acquisition des signaux sonores, on prévoit avantageusement un microphone comportant un réseau de transducteurs acoustiques agencés sensiblement sur la surface d'une sphère dont le centre correspond sensiblement audit point de référence, pour obtenir lesdits signaux représentatifs d'au moins un son se propageant dans l'espace tridimensionnel.
Dans cette réalisation, on applique à l'étape b) un filtre global pour, d'une part, compenser un effet de champ proche en fonction de ladite seconde distance et, d'autre part, égaliser les signaux issus des transducteurs pour compenser une pondération de directivité desdits transducteurs.
Préférentiellement, on prévoit un nombre de transducteurs fonction d'un nombre total choisi de composantes pour représenter le son dans ladite base d'harmoniques sphériques.
Selon une caractéristique avantageuse, on choisit à l'étape a) un nombre total de composantes dans la base des
<Desc/Clms Page number 12>
harmoniques sphériques pour obtenir, à la restitution, une région de l'espace autour du point de perception dans laquelle la restitution du son est fidèle et dont les dimensions sont croissantes avec le nombre total de composantes.
Préférentiellement, on prévoit en outre un dispositif de restitution comportant un nombre de haut-parleurs au moins égal audit nombre total de composantes.
En variante, dans le cadre d'une restitution avec synthèse binaurale ou transaurale : - on prévoit un dispositif de restitution comportant au moins un premier et un second haut-parleur disposés à une distance choisie d'un auditeur, on obtient, pour cet auditeur, une information de ressenti attendu de la position dans l'espace de sources sonores situées à une distance de référence prédéterminée de l'auditeur pour l'application d'une technique dite de "synthèse binaurale" ou "transaurale", et - on applique la compensation de l'étape b) avec ladite distance de référence sensiblement en tant que seconde distance.
Dans une variante où l'on introduit une adaptation au dispositif de restitution à deux écouteurs : - on prévoit un dispositif de restitution comportant au moins un premier et un second haut-parleur disposés à une distance choisie d'un auditeur, on obtient, pour cet auditeur, une information de ressenti de la position dans l'espace de sources sonores
<Desc/Clms Page number 13>
situées à une distance de référence prédéterminée de l'auditeur, et - préalablement à une restitution sonore par le dispositif de restitution, on applique aux données codées et filtrées aux étapes a) et b) un filtre d'adaptation dont les coefficients sont fonction de la seconde distance et sensiblement de la distance de référence.
En particulier, dans le cadre d'une restitution avec synthèse binaurale : - le dispositif de restitution comporte un casque à deux écouteurs pour les oreilles respectives de l'auditeur, - et préférentiellement, séparément pour chaque écouteur, on applique le codage et le filtrage des étapes a) et b) pour des signaux respectifs destinés à alimenter chaque écouteur, avec, en tant que première distance, respectivement une distance séparant chaque oreille d'une position d'une source à restituer dans l'espace de restitution.
Préférentiellement, on met en forme, aux étapes a) et b), un système matriciel comportant au moins : - une matrice comportant lesdites composantes dans la base des harmoniques sphériques, et - une matrice diagonale dont les coefficients correspondent à des coefficients de filtrage de l'étape b) , et on multiplie lesdites matrices pour obtenir une matrice résultat de composantes compensées.
De préférence, à la restitution :
<Desc/Clms Page number 14>
- le dispositif de restitution comporte une pluralité de haut-parleurs disposés sensiblement à une même distance du point de perception auditive, et - pour décoder lesdites données codées et filtrées aux étapes a) et b) et former des signaux adaptés pour alimenter lesdits haut-parleurs : * on forme un système matriciel comportant ladite matrice résultat de composantes compensées et une matrice de décodage prédéterminée, propre au dispositif de restitution, et * on obtient une matrice comportant des coefficients représentatifs des signaux d'alimentation des hauts- parleurs par multiplication de la matrice résultat par ladite matrice de décodage.
La présente invention vise aussi un dispositif d'acquisition sonore, comportant un microphone muni d'un réseau de transducteurs acoustiques disposés sensiblement sur la surface d'une sphère. Selon l'invention le dispositif comporte en outre une unité de traitement agencée pour : - recevoir des signaux émanant chacun d'un transducteur, - appliquer auxdits signaux un codage pour obtenir une représentation du son par des composantes exprimées dans une base d'harmoniques sphériques, d'origine correspondant au centre de ladite sphère, - et appliquer auxdites composantes un filtrage qui est fonction, d'une part, d'une distance correspondant au rayon de la sphère et, d'autre part, d'une distance de référence.
<Desc/Clms Page number 15>
Préférentiellement, le filtrage effectué par l'unité de traitement consiste, d'une part, à égaliser, en fonction du rayon de la sphère, les signaux issus des transducteurs pour compenser une pondération de directivité desdits transducteurs et, d'autre part, à compenser un effet de champ proche en fonction de ladite distance de référence.
D'autres avantages et caractéristiques de l'invention apparaîtront à la lecture de la description détaillée ciaprès et à l'examen des figures qui l'accompagnent, sur lesquelles : - la figure 1 illustre schématiquement un système d'acquisition et création, par simulation de sources virtuelles, de signaux sonores, avec encodage, transmission, décodage et restitution par un dispositif de restitution spatialisé, - la figure 2 représente plus précisément un encodage de signaux définis à la fois en intensité et par rapport à la position d'une source dont ils sont issus, - la figure 3 illustre les paramètres en jeu dans la représentation ambisonique, en coordonnées sphériques ; - la figure 4 illustre une représentation par une métrique tridimensionnelle dans un repère de coordonnées sphériques, d'harmoniques sphériques Ymn# de différents ordres ; - la figure 5 est un diagramme des variations du module de fonctions radiales jm(kr), qui sont des fonctions de Bessel sphériques, pour des valeurs d'ordre m successives, ces fonctions radiales intervenant dans la représentation ambisonique d'un champ de pression acoustique ;
<Desc/Clms Page number 16>
- la figure 6 représente l'amplification due à l'effet de champ proche pour différents ordres successifs m, en particulier dans les basses fréquences ; - la figure 7 représente schématiquement un dispositif de restitution comportant une pluralité de hauts-parleurs HP1, avec le point (référencé P) de perception auditive précité, la première distance précitée (référencée p) et la seconde distance précitée (référencée R) ; - la figure 8 représente schématiquement les paramètres mis en jeu dans l'encodage ambisonique, avec un encodage directionnel, ainsi qu'un encodage de distance selon l'invention ; - la figure 9 représente des spectres d'énergie des filtres de compensation et de champ proche simulés pour une première distance d'une source virtuelle p = 1 m et une pré-compensation de hauts-parleurs situés à une seconde distance R = 1,5 m ; - la figure 10 représente des spectres d'énergie des filtres de compensation et de champ proche simulés pour une première distance de la source virtuelle p = 3 m et une pré-compensation de hauts-parleurs situés à une distance R = 1,5 m ; - la figure 11A représente une reconstruction du champ proche avec compensation, au sens de la présente invention, pour une onde sphérique dans le plan horizontal ; - la figure 11B, à comparer avec la figure 11A, représente le front d'onde initial, issu d'une source S ; - la figure 12 représente schématiquement un module de filtrage pour adapter les composantes ambisoniques reçues et pré-compensées à l'encodage pour une distance de
<Desc/Clms Page number 17>
référence R en tant que seconde distance, à un dispositif de restitution comportant une pluralité de hauts-parleurs disposés à une troisième distance R2 d'un point de perception auditive ; - la figure 13A représente schématiquement la disposition d'une source sonore M, à la restitution, pour un auditeur utilisant un dispositif de restitution appliquant une synthèse binaurale, avec une source émettant en champ proche ; - la figure 13B représente schématiquement les étapes d'encodage et de décodage avec effet de champ proche dans le cadre de la synthèse binaurale de la figure 13A à laquelle est combiné un encodage/décodage ambisonique ; - la figure 14 représente schématiquement le traitement des signaux issus d'un microphone comportant une pluralité de capteurs de pression agencés sur une sphère, à titre illustratif, par encodage ambisonique, égalisation et compensation de champ proche au sens de l'invention.
On se réfère tout d' abord à la figure 1 qui représente à titre illustratif un système global de spatialisation sonore. Un module la de simulation d'une scène virtuelle définit un objet sonore comme une source virtuelle d'un signal, par exemple monophonique, de position choisie dans l'espace tridimensionnel et qui définit une direction du son. Il peut être prévu en outre des spécifications de la géométrie d'une salle virtuelle, pour simuler une réverbération du son. Un module de traitement 11 applique une gestion d'une ou plusieurs de ces sources par rapport à un auditeur (définition d'une position virtuelle des sources par rapport à cet auditeur). Il met en #uvre un
<Desc/Clms Page number 18>
processeur d'effet de salle pour simuler des réverbérations ou autres en appliquant des retards et/ou des filtrages usuels. Les signaux ainsi construits sont transmis à un module 2a d'encodage spatial des contributions élémentaires des sources.
Parallèlement, une prise de son naturelle peut être effectuée dans le cadre d'un enregistrement sonore par un ou plusieurs microphones disposés de façon choisie par rapport aux sources réelles (module lb). Les signaux captés par les microphones sont encodés par un module 2b.
Les signaux acquis et encodés peuvent être transformés selon un format de représentation intermédiaire (module 3b), avant d'être mixés par le module 3 aux signaux générés par le module la et encodés par le module 2a (issu des sources virtuelles). Les signaux mixés sont ensuite transmis, ou encore mémorisés sur un support, en vue d'une restitution ultérieure (flèche TR). Ils sont ensuite appliqués à un module de décodage 5, en vue de la restitution sur un dispositif de restitution 6 comportant des hauts-parleurs. Le cas échéant, l'étape de décodage 5 peut être précédée d'une étape de manipulation du champ sonore, par exemple par rotation, grâce à un module de traitement 4 prévu en amont du module de décodage 5.
Le dispositif de restitution peut se présenter sous la forme d'une multiplicité de hauts-parleurs, agencés par exemple à la surface d'une sphère dans une configuration tridimensionnelle (périphonique) pour assurer, à la restitution, notamment un ressenti d'une direction du son dans l'espace tridimensionnel. A cet effet, un auditeur se
<Desc/Clms Page number 19>
place généralement au centre de la sphère formée par le réseau de haut-parleurs, ce centre correspondant au point de perception auditive cité ci-avant. En variante, les hauts-parleurs du dispositif de restitution peuvent être agencés dans un plan (configuration panoramique bidimensionnelle), les hauts-parleurs étant disposés en particulier sur un cercle et l'auditeur se plaçant habituellement au centre de ce cercle. Dans une autre variante, le dispositif de restitution peut se présenter sous la forme d'un dispositif de type "surround" (5.1).
Enfin, dans une variante avantageuse, le dispositif de restitution peut se présenter sous la forme d'un casque à deux écouteurs pour une synthèse binaurale du son restitué, qui permet à l'auditeur de ressentir une direction des sources dans l'espace tridimensionnel, comme on le verra plus loin de façon détaillée. Un tel dispositif de restitution à deux hauts-parleurs, pour un ressenti dans l'espace tridimensionnel, peut se présenter aussi sous la forme d'un dispositif de restitution transaurale, à deux hauts-parleurs disposés à une distance choisie d'un auditeur.
On se réfère maintenant à la figure 2 pour décrire un encodage spatial et un décodage pour une restitution sonore tridimensionnelle, de sources sonores élémentaires.
On transmet à un module d'encodage spatial 2 le signal issu d'une source 1 à N, ainsi que sa position (réelle ou virtuelle). Sa position peut être aussi bien définie en terme d'incidence (direction de la source vue de l'auditeur) qu'en terme de distance entre cette source et un auditeur. La pluralité des signaux ainsi encodés permet
<Desc/Clms Page number 20>
d'obtenir une représentation multi-canale d'un champ sonore global. Les signaux encodés sont transmis (flèche TR) à un dispositif de restitution sonore 6, pour une restitution sonore dans l'espace tridimensionnel, comme indiqué ci-avant en référence à la figure 1.
On se réfère maintenant à la figure 3 pour décrire ciaprès la représentation ambisonique par des harmoniques sphériques dans l'espace tridimensionnel, d'un champ acoustique. On considère une zone autour d'une origine 0 (sphère de rayon R) exempte de source acoustique. On adopte un système de coordonnées sphériques dans lequel chaque vecteur r dès l'origine 0 à un point de la sphère est décrit par un azimut #r, une élévation 8r et un rayon r (correspondant à la distance à l'origine 0).
Le champ de pression p(#) à l'intérieur de cette sphère (r < R où R est le rayon de la sphère) peut s'écrire dans le domaine fréquentiel comme une série dont les termes sont les produits pondérés de fonctions angulaires ymn#(#,#) et de fonction radiale jm(kr) qui dépendent ainsi d'un terme de propagation où k=2f/c, où f est la fréquence sonore et c est la vitesse du son dans le milieu de propagation.
<Desc/Clms Page number 21>
L'ensemble des facteurs de pondération Bmn#, qui sont implicitement fonction de la fréquence, décrivent ainsi le champ de pression dans la zone considérée. Pour cette raison, ces facteurs sont appelés "composantes harmoniques sphériques" et représentent une expression fréquentielle du son (ou du champ de pression) dans la base des harmoniques sphériques Ymn#.
Les fonctions angulaires sont appelées "harmoniques sphériques" et sont définies par :
où Pmn (sin#) sont des fonctions de Legendre de degré m et d'ordre n ; #p,q est le symbole de Krônecker (égal à 1 si p=q et 0, sinon) Les harmoniques sphériques forment une base orthonormée où les produits scalaires entre composantes harmoniques et, de façon générale entre deux fonctions F et G, sont respectivement définies par :
où Pmn (sin#) sont des fonctions de Legendre de degré m et d'ordre n ; #p,q est le symbole de Krônecker (égal à 1 si p=q et 0, sinon) Les harmoniques sphériques forment une base orthonormée où les produits scalaires entre composantes harmoniques et, de façon générale entre deux fonctions F et G, sont respectivement définies par :
<Desc/Clms Page number 22>
Les harmoniques sphériques sont des fonctions réelles bornées, comme représenté sur la figure 4, en fonction de l'ordre m et des indices n et cr. Les parties sombres et claires correspondent respectivement aux valeurs positives et négatives des fonctions harmoniques sphériques. Plus l'ordre m est élevé et plus la fréquence angulaire (et donc la discrimination entre fonctions) est élevée. Les fonctions radiales jm(kr) sont des fonctions de Bessel sphériques, dont le module est illustré pour quelques valeurs de l'ordre m dans la figure 5.
On peut donner une interprétation de la représentation ambisonique par une base d'harmoniques sphériques comme suit. Les composantes ambisoniques de même ordre m expriment finalement des "dérivées" ou des "moments" d'ordre m du champ de pression au voisinage de l'origine 0 (centre de la sphère représentée sur la figure 3).
En particulier, B00+1 = W décrit la grandeur scalaire de la pression, tandis que Il = , Il 1 = Y, B10+=Z sont liés aux gradients de pression (ou encore à la vélocité particulaire) à l'origine 0. Ces quatre premières composantes W, X, Y et Z sont obtenues lors d'une prise de son naturelle à l'aide de microphones omnidirectifs (pour la composante W d'ordre 0) et bidirectifs (pour les trois autres composantes suivantes) . En utilisant un plus grand nombre de transducteurs acoustiques, un traitement
<Desc/Clms Page number 23>
approprié, notamment par égalisation, permet d'obtenir d'avantage de composantes ambisoniques (ordres m plus élevés supérieurs à 1).
En prenant en compte des composantes supplémentaires d'ordre plus élevé (supérieur à 1), donc en augmentant la résolution angulaire de la description ambisonique, on accède à une approximation du champ de pression sur un voisinage plus large au regard de la longueur d'onde de l'onde sonore, autour de l'origine 0. On comprendra ainsi qu'il existe une relation étroite entre la résolution angulaire (ordre des harmoniques sphériques) et la portée radiale (rayon r) qui peut être représentée. En bref, lorsque l'on s'écarte spatialement du point d'origine 0 de la figure 3, plus le nombre de composantes ambisoniques est élevé (ordre M élevé) et meilleure est la représentation du son par l'ensemble de ces composantes ambisoniques. On comprendra aussi que la représentation ambisonique du son est toutefois moins satisfaisante au fur et à mesure que l'on s'éloigne de l'origine 0. Cet effet devient critique en particulier pour des fréquences sonores élevées (de longueur d'onde courte). On a donc intérêt à obtenir un nombre de composantes ambisoniques qui soit le plus grand possible, ce qui permet de créer une région de l'espace autour du point de perception, dans laquelle la restitution du son est fidèle et dont les dimensions sont croissantes avec le nombre total de composantes.
On décrit ci-après une application à système d'encodage/transmission/restitution d'un son spatialisé.
<Desc/Clms Page number 24>
En pratique, un système ambisonique prend en compte un sous-ensemble de composantes harmoniques sphériques, comme décrit ci-avant. On parle d'un système d'ordre M lorsque celui-ci prend en compte des composantes ambisoniques d'indice m < M. Lorsqu'il s'agit d'une restitution par un dispositif de restitution à hauts-parleurs, on comprendra que si ces hauts-parleurs sont disposés dans un plan horizontal, seules les harmoniques d'indice m=n sont exploitées. En revanche, lorsque le dispositif de restitution comporte des hauts-parleurs disposés sur la surface d'une sphère ("périphonie"), on peut en principe exploiter autant d'harmoniques qu'il existe de hautparleurs.
On désigne par la référence S le signal de pression porté par une onde plane et capté au point 0 correspondant au centre de la sphère de la figure 3 (origine de la base en coordonnées sphériques). L'incidence de l'onde est décrite par l'azimut # et l'élévation 8. L'expression des composantes du champ associé à cette onde plane est donnée par la relation : Bmn# = S.Ymn#(#,#) [A3] Pour encoder (simuler) une source en champ proche à une distance p de l'origine 0, on applique un filtre Fm(#/c) pour "incurver" la forme des fronts d'onde, en considérant qu'un champ proche émet, en première approximation, une
<Desc/Clms Page number 25>
onde sphérique. Les composantes encodées du champ deviennent :
et l'expression du filtre précité Fm(#/c) est donnée par la relation :
où # = 2nf est la pulsation de l'onde, f étant la fréquence du son.
et l'expression du filtre précité Fm(#/c) est donnée par la relation :
où # = 2nf est la pulsation de l'onde, f étant la fréquence du son.
Ces deux dernières relations [A4] et [A5] montrent finalement que, aussi bien pour une source virtuelle (simulée) que pour une source réelle en champ proche, les composantes du son dans la représentation ambisonique s'expriment mathématiquement (en particulier analytiquement) sous la forme d'un polynôme, ici de Bessel, de puissance m et dont la variable (c/2jcop) est inversement proportionnelle à la fréquence sonore.
Ainsi, on comprendra que : - dans le cas d'une onde plane, l'encodage produit des signaux qui ne diffèrent du signal d'origine que d'un gain réel, fini, ce qui correspond à un encodage purement directionnel (relation [A3]) ; - dans le cas d'une onde sphérique (source en champ proche) , le filtre supplémentaire Fm(#/c)(#) encode
<Desc/Clms Page number 26>
l'information de distance en introduisant, dans l'expression des composantes ambisoniques, des rapports d'amplitudes complexes qui dépendent de la fréquence, comme exprimé dans la relation [A5].
Il est à noter que ce filtre supplémentaire est de type "intégrateur", avec un effet d'amplification croissant et divergent (non-borné) au fur et à mesure que les fréquences sonores décroissent vers zéro. La figure 6 montre, pour chaque ordre m, une augmentation du gain en basses fréquences (ici la première distance p = lm). Il s'agit donc de filtres instables et divergents lorsque l'on cherche à les appliquer à des signaux audio quelconques. Cette divergence est d'autant plus critique pour les ordres m de valeur élevée.
On comprendra en particulier, à partir des relations [A3], [A4], et [A5], que la modélisation d'une source virtuelle en champ proche présente des composantes ambisoniques divergentes en basses fréquences, de façon particulièrement critique pour des ordres m élevés, comme représenté sur la figure 6. Cette divergence, dans les basses fréquences, correspond au phénomène de "bass boost" énoncé ci-avant. Il se manifeste aussi en acquisition sonore, pour des sources réelles.
Pour cette raison notamment, l'approche ambisonique, en particulier pour des ordres m élevés, n'a pas connu, dans l'état de la technique, une application concrète (autre que théorique) dans le traitement du son.
<Desc/Clms Page number 27>
On comprend en particulier qu'une compensation du champ proche est nécessaire pour respecter, à la restitution, la forme des fronts d'ondes encodés dans la représentation ambisonique. En se référant à la figure 7, un dispositif de restitution comporte une pluralité de hauts-parleurs HP1, disposés à une même distance R, dans l'exemple décrit, d'un point de perception auditive P. Sur cette figure 7 : - chaque point où se situe un haut-parleur HP1 correspond à un point de restitution énoncé ci-avant, - le point P est le point de perception auditive énoncé ci-avant, - ces points sont séparés de la seconde distance R énoncée ci-avant, tandis que sur la figure 3 décrite ci-avant .
- le point 0 correspond au point de référence, énoncé ci- avant, qui forme l'origine de la base des harmoniques sphériques, - le point M correspond à la position d'une source (réelle ou virtuelle) située à la première distance p, énoncée ci- avant, du point de référence 0.
Selon l'invention, on introduit une pré-compensation du champ proche au stade même de l'encodage, cette compensation mettant en jeu des filtres de la forme analytique 1/Fm(R/c)(#) et qui s'appliquent aux composantes Fm (R/c)(#) ambisoniques Bmn# précitées.
<Desc/Clms Page number 28>
Selon l'un des avantages que procure l'invention, l'amplification Fm(#/c)(#) dont l' effet apparaît sur la figure 6 est compensée par l'atténuation du filtre appliqué dès l'encodage (/ ) . En particulier, les Fm (R/c)(#) coefficients de ce filtre de compensation 1/Fm(R/c)(#) sont Fm (R/c)(#) croissants avec la fréquence du son et, en particulier, tendent vers zéro, pour les basses fréquences.
Avantageusement, cette pré-compensation, effectuée dès l'encodage, assure que les données transmises ne sont pas divergentes pour les basses fréquences.
Pour indiquer la signification physique de la distance R qui intervient dans le filtre de compensation, on considère, à titre illustratif, une onde plane réelle, initiale, à l'acquisition des signaux sonores. Pour simuler un effet de champ proche de cette source lointaine, on applique le premier filtre de la relation [A5], comme indiqué dans la relation [A4]. La distance p représente alors une distance entre une source virtuelle proche M et le point 0 représentant l'origine de la base sphérique de la figure 3. On applique ainsi un premier filtre de simulation de champ proche pour simuler la présence d'une source virtuelle à la distance p décrite ci-avant. Néanmoins, d'une part, comme indiqué ci-avant, les termes du coefficient de ce filtre divergent dans les basses fréquences (figure 6) et, d'autre part, la distance p précitée ne représentera pas forcément la distance entre les hauts-parleurs d'un dispositif de restitution et un
<Desc/Clms Page number 29>
point P de perception (figure 7). Selon l'invention, on applique une pré-compensation, à l'encodage, mettant en jeu un filtre de type 1/Fm (R/c)(#) comme indiqué ci-avant, ce qui permet, d'une part, de transmettre des signaux bornés, et, d'autre part, de choisir la distance R, dès l'encodage, pour la restitution du son à partir des hautsparleurs HPi, tel que représenté sur la figure 7. En particulier, on comprendra que si l'on a simulé, à l'acquisition, une source virtuelle placée à la distance p de l'origine 0, à la restitution (figure 7), un auditeur placé au point P de perception auditive (à une distance R des hauts-parleurs HPi) ressentira, à l'audition, la présence d'une source sonore S, placée à la distance p du point de perception P et qui correspond à la source virtuelle simulée lors de l'acquisition.
Ainsi, la pré-compensation du champ proche des hautsparleurs (placés à la distance R), au stade de l'encodage, peut être combinée à un effet de champ proche simulé d'une source virtuelle placée à une distance p. A l'encodage, on met finalement en jeu un filtre total résultant, d'une part, de la simulation du champ proche, et, d'autre part, de la compensation du champ proche, les coefficients de ce filtre pouvant s'exprimer analytiquement par la relation :
<Desc/Clms Page number 30>
Le filtre total donné par la relation [A11] est stable et constitue la partie "encodage de distance" dans l'encodage ambisonique spatial selon l'invention, tel que représenté sur la figure 8. Les coefficients de ces filtres correspondent à des fonctions de transfert monotones de la fréquence, qui tendent vers la valeur 1 en hautes fréquences et vers la valeur (R/p)m en basses fréquences.
En se référant à la figure 9, les spectres d'énergie des filtres HmNFC(#/c,R/c)(#) traduisent l'amplification des composantes encodées, dues à l'effet de champ de la source virtuelle (placée ici à une distance p = 1 m), avec une pré-compensation du champ des hauts-parleurs (placés à une distance R = 1,5 m). L'amplification en décibels est donc positive lorsque p < R (cas de la figure 9) et négative quand p > R (cas de la figure 10 où p = 3 m et R = 1,5 m).
Dans un dispositif de restitution spatialisée, la distance R entre un point de perception auditive et les hautparleurs HPi est effectivement de l'ordre de un ou quelques mètres.
En se référant à nouveau à la figure 8, on comprendra que, outre les paramètres de direction # et 8 habituels, on transmettra une information sur les distances qui interviennent à l'encodage. Ainsi, les fonctions angulaires correspondant aux harmoniques sphériques Ymn#(#,#) sont conservées pour l'encodage directionnel.
Toutefois, au sens de la présente invention, on prévoit en outre des filtres totaux (compensation de champ proche et, le cas échéant, simulation d'un champ proche)
<Desc/Clms Page number 31>
HmNFC(#/c,R/c)(#) qui sont appliqués aux composantes ambisoniques, en fonction de leur ordre m, pour réaliser l'encodage de la distance, comme représenté sur la figure 8. Un mode de réalisation de ces filtres dans le domaine audionumérique sera décrit en détail plus loin.
On remarquera en particulier que ces filtres peuvent être appliqués dès même l'encodage de distance (r) et avant même l'encodage de direction (#,#). On comprendra ainsi que les étapes a) et b) ci-avant peuvent être rassemblées en une même étape globale, ou même être interverties (avec un encodage de distance et filtrage de compensation, suivis d'un encodage de direction). Le procédé selon l'invention ne se limite donc pas à une mise en #uvre successive dans le temps des étapes a) et b).
La figure 11A représente une visualisation (vue de dessus) d'une reconstruction d'un champ proche avec compensation, d'une onde sphérique, dans le plan horizontal (avec les mêmes paramètres de distance que ceux de la figure 9), pour un système d'ordre total M = 15 et une restitution sur 32 hauts-parleurs. Sur la figure 11B, on a représenté la propagation de l'onde sonore initiale à partir d'une source en champ proche située à une distance p d'un point de l'espace d'acquisition qui correspond, dans l'espace de restitution, au point P de la figure 7 de perception auditive. On remarque sur la figure 11A que les auditeurs (symbolisés par des têtes schématisées) peuvent localiser la source virtuelle en un même lieu géographique situé à la distance p du point de perception P sur la figure 11B.
<Desc/Clms Page number 32>
On vérifie bien ainsi que la forme du front d'onde encodé est respectée après décodage et restitution. Toutefois, on constate sensiblement des interférences à droite du point P tel que représenté sur la figure 11A qui sont dues au fait que le nombre de hauts-parleurs (donc de composantes ambisoniques prises en compte) n'est pas suffisant pour restituer parfaitement le front d'ondes en jeu sur toute la surface délimitée par les haut-parleurs.
Dans ce qui suit, on décrit, à titre d'exemple, l'obtention d'un filtre audionumérique pour la mise en #uvre du procédé au sens de l'invention.
Comme indiqué ci-avant, si l'on cherche à simuler un effet de champ proche, compensé dès l'encodage, on applique aux composantes ambisoniques du son un filtre de la forme :
De l'expression de la simulation d'un champ proche donné par la relation [A5], il apparaît que pour des sources lointaines (p = #), la relation [All] devient simplement :
Il apparaît donc de cette dernière relation [A12] que le cas où la source à simuler émet en champ lointain (source
De l'expression de la simulation d'un champ proche donné par la relation [A5], il apparaît que pour des sources lointaines (p = #), la relation [All] devient simplement :
Il apparaît donc de cette dernière relation [A12] que le cas où la source à simuler émet en champ lointain (source
<Desc/Clms Page number 33>
lointaine) n'est qu'un cas particulier de l'expression générale du filtre formulée dans la relation [All].
Dans le domaine des traitements audionumériques, un procédé avantageux pour définir un filtre numérique à partir de l'expression analytique de ce filtre dans le domaine analogique à temps continu consiste en une "transformée bilinéaire".
On exprime d'abord la relation [A5] sous la forme d'une transformée de Laplace, ce qui correspond à :
où T = p/c (c étant la vitesse acoustique dans le milieu, typiquement 340 m/s dans l'air).
où T = p/c (c étant la vitesse acoustique dans le milieu, typiquement 340 m/s dans l'air).
La transformée bilinéaire consiste à présenter, pour une fréquence d'échantillonnage fs, la relation [All] sous la forme :
si m est impair et
si m est impair et
<Desc/Clms Page number 34>
si m est pair, où z est défini par p = 2fs1-z-1/1+z-1 par rapport à la relation 1+z [A13] précédente, et avec :
où a = 4fs R/c pour x=a et a = 4fs p/c pour x=b Xm,q sont les q racines successives du polynôme de Bessel :
où a = 4fs R/c pour x=a et a = 4fs p/c pour x=b Xm,q sont les q racines successives du polynôme de Bessel :
<Desc/Clms Page number 35>
et sont exprimées dans le tableau 1 ci-après, pour différents ordres m, sous les formes respectives de leur partie réelle, leur module (séparés par une virgule) et leur valeur (réelle) lorsque m est impair.
<Desc/Clms Page number 36>
Tableau 1 : valeurs Re[Xm,q] #Xm,q# (et Re[Xm,m] lorsque m est impair) d'un polynôme de Bessel calculées à l'aide du logiciel de calcul MATLAB@.
<tb>
<tb> m=1 <SEP> -2.0000000000
<tb> m=2 <SEP> -3. <SEP> 0000000000, <SEP> 3. <SEP> 4641016151
<tb> m=3 <SEP> -3.6778146454, <SEP> 5.0830828022 <SEP> ; <SEP> -4. <SEP> 6443707093
<tb> m=4 <SEP> -4. <SEP> 2075787944, <SEP> 6.7787315854 <SEP> ; <SEP> -5. <SEP> 7924212056, <SEP> 6.0465298776
<tb> m=5-4.6493486064, <SEP> 8.5220456027 <SEP> ; <SEP> -6. <SEP> 7039127983, <SEP> 7.5557873219 <SEP> ; <SEP>
<tb> -7. <SEP> 2934771907
<tb> m=6 <SEP> -5.0318644956, <SEP> 10.2983543043 <SEP> ; <SEP> -7.4714167127, <SEP> 9.1329783045 <SEP> ; <SEP>
<tb> -8. <SEP> 4967187917, <SEP> 8. <SEP> 6720541026
<tb> m=7 <SEP> -5. <SEP> 3713537579, <SEP> 12.0990553610 <SEP> ; <SEP> -8. <SEP> 1402783273, <SEP> 10.7585400670 <SEP> ; <SEP>
<tb> -9. <SEP> 5165810563, <SEP> 10.1324122997 <SEP> ; <SEP> -9. <SEP> 9435737171
<tb> m=8 <SEP> -5. <SEP> 6779678978, <SEP> 13.9186233016 <SEP> ; <SEP> -8. <SEP> 7365784344, <SEP> 12.4208298072 <SEP> ; <SEP>
<tb> -10. <SEP> 4096815813, <SEP> 11.6507064310 <SEP> ; <SEP> -11. <SEP> 1757720865, <SEP> 11.3096817388
<tb> m=9-5.9585215964, <SEP> 15.7532774523 <SEP> ; <SEP> -9. <SEP> 2768797744, <SEP> 14.1121936859 <SEP> ;
<tb> -11. <SEP> 2088436390, <SEP> 13.2131216226 <SEP> ; <SEP> -12. <SEP> 2587358086, <SEP> 12.7419414392 <SEP> ;
<tb> -12. <SEP> 5940383634
<tb> m=10 <SEP> -6.2178324673, <SEP> 17.6003068759 <SEP> ; <SEP> -9.7724391337, <SEP> 15.8272658299 <SEP> ; <SEP>
<tb> -11. <SEP> 9350566572, <SEP> 14.8106929213 <SEP> ; <SEP> -13. <SEP> 2305819310, <SEP> 14.2242555605 <SEP> ;
<tb> -13. <SEP> 8440898109, <SEP> 13. <SEP> 9524261065
<tb> m=11 <SEP> -6. <SEP> 4594441798, <SEP> 19.4576958063 <SEP> ; <SEP> -10. <SEP> 2312965678, <SEP> 17.5621095176 <SEP> ; <SEP>
<tb> -12. <SEP> 6026749098, <SEP> 16.4371594915 <SEP> ; <SEP> -14. <SEP> 1157847751, <SEP> 15.7463731900 <SEP> ;
<tb> -14. <SEP> 9684597220, <SEP> 15.3663558234 <SEP> ; <SEP> -15.2446796908
<tb> m=12 <SEP> -6.6860466156, <SEP> 21.3239012076 <SEP> ; <SEP> -10. <SEP> 6594171817, <SEP> 19.3137363168 <SEP> ; <SEP>
<tb> -13. <SEP> 2220085001, <SEP> 18.0879209819 <SEP> ; <SEP> -14. <SEP> 9311424804, <SEP> 17.3012295772 <SEP> ;
<tb> -15. <SEP> 9945411996, <SEP> 16.8242165032 <SEP> ; <SEP> -16. <SEP> 5068440226, <SEP> 16. <SEP> 5978151615
<tb> m=13 <SEP> -6. <SEP> 8997344413, <SEP> 23.1977134580 <SEP> ; <SEP> -11.0613619668, <SEP> 21.0798161546 <SEP> ; <SEP>
<tb> -13. <SEP> 8007456514, <SEP> 19.7594692366 <SEP> ; <SEP> -15. <SEP> 6887605582, <SEP> 18.8836767359 <SEP> ;
<tb> -16. <SEP> 9411835315, <SEP> 18.3181073534 <SEP> ; <SEP> -17. <SEP> 6605041890, <SEP> 17.9988179873 <SEP> ;
<tb> -17. <SEP> 8954193236
<tb> m=14 <SEP> -7. <SEP> 1021737668, <SEP> 25.0781652657 <SEP> ; <SEP> -11.4407047669, <SEP> 22.8584924996 <SEP> ; <SEP>
<tb> -14. <SEP> 3447919297, <SEP> 21.4490520815 <SEP> ; <SEP> -16. <SEP> 3976939224, <SEP> 20.4898067617 <SEP> ;
<tb> -17. <SEP> 8220011429, <SEP> 19.8423306934 <SEP> ; <SEP> -18. <SEP> 7262916698, <SEP> 19.4389130000 <SEP> ;
<tb> -19.1663428016, <SEP> 19. <SEP> 2447495545
<tb>
<tb> m=1 <SEP> -2.0000000000
<tb> m=2 <SEP> -3. <SEP> 0000000000, <SEP> 3. <SEP> 4641016151
<tb> m=3 <SEP> -3.6778146454, <SEP> 5.0830828022 <SEP> ; <SEP> -4. <SEP> 6443707093
<tb> m=4 <SEP> -4. <SEP> 2075787944, <SEP> 6.7787315854 <SEP> ; <SEP> -5. <SEP> 7924212056, <SEP> 6.0465298776
<tb> m=5-4.6493486064, <SEP> 8.5220456027 <SEP> ; <SEP> -6. <SEP> 7039127983, <SEP> 7.5557873219 <SEP> ; <SEP>
<tb> -7. <SEP> 2934771907
<tb> m=6 <SEP> -5.0318644956, <SEP> 10.2983543043 <SEP> ; <SEP> -7.4714167127, <SEP> 9.1329783045 <SEP> ; <SEP>
<tb> -8. <SEP> 4967187917, <SEP> 8. <SEP> 6720541026
<tb> m=7 <SEP> -5. <SEP> 3713537579, <SEP> 12.0990553610 <SEP> ; <SEP> -8. <SEP> 1402783273, <SEP> 10.7585400670 <SEP> ; <SEP>
<tb> -9. <SEP> 5165810563, <SEP> 10.1324122997 <SEP> ; <SEP> -9. <SEP> 9435737171
<tb> m=8 <SEP> -5. <SEP> 6779678978, <SEP> 13.9186233016 <SEP> ; <SEP> -8. <SEP> 7365784344, <SEP> 12.4208298072 <SEP> ; <SEP>
<tb> -10. <SEP> 4096815813, <SEP> 11.6507064310 <SEP> ; <SEP> -11. <SEP> 1757720865, <SEP> 11.3096817388
<tb> m=9-5.9585215964, <SEP> 15.7532774523 <SEP> ; <SEP> -9. <SEP> 2768797744, <SEP> 14.1121936859 <SEP> ;
<tb> -11. <SEP> 2088436390, <SEP> 13.2131216226 <SEP> ; <SEP> -12. <SEP> 2587358086, <SEP> 12.7419414392 <SEP> ;
<tb> -12. <SEP> 5940383634
<tb> m=10 <SEP> -6.2178324673, <SEP> 17.6003068759 <SEP> ; <SEP> -9.7724391337, <SEP> 15.8272658299 <SEP> ; <SEP>
<tb> -11. <SEP> 9350566572, <SEP> 14.8106929213 <SEP> ; <SEP> -13. <SEP> 2305819310, <SEP> 14.2242555605 <SEP> ;
<tb> -13. <SEP> 8440898109, <SEP> 13. <SEP> 9524261065
<tb> m=11 <SEP> -6. <SEP> 4594441798, <SEP> 19.4576958063 <SEP> ; <SEP> -10. <SEP> 2312965678, <SEP> 17.5621095176 <SEP> ; <SEP>
<tb> -12. <SEP> 6026749098, <SEP> 16.4371594915 <SEP> ; <SEP> -14. <SEP> 1157847751, <SEP> 15.7463731900 <SEP> ;
<tb> -14. <SEP> 9684597220, <SEP> 15.3663558234 <SEP> ; <SEP> -15.2446796908
<tb> m=12 <SEP> -6.6860466156, <SEP> 21.3239012076 <SEP> ; <SEP> -10. <SEP> 6594171817, <SEP> 19.3137363168 <SEP> ; <SEP>
<tb> -13. <SEP> 2220085001, <SEP> 18.0879209819 <SEP> ; <SEP> -14. <SEP> 9311424804, <SEP> 17.3012295772 <SEP> ;
<tb> -15. <SEP> 9945411996, <SEP> 16.8242165032 <SEP> ; <SEP> -16. <SEP> 5068440226, <SEP> 16. <SEP> 5978151615
<tb> m=13 <SEP> -6. <SEP> 8997344413, <SEP> 23.1977134580 <SEP> ; <SEP> -11.0613619668, <SEP> 21.0798161546 <SEP> ; <SEP>
<tb> -13. <SEP> 8007456514, <SEP> 19.7594692366 <SEP> ; <SEP> -15. <SEP> 6887605582, <SEP> 18.8836767359 <SEP> ;
<tb> -16. <SEP> 9411835315, <SEP> 18.3181073534 <SEP> ; <SEP> -17. <SEP> 6605041890, <SEP> 17.9988179873 <SEP> ;
<tb> -17. <SEP> 8954193236
<tb> m=14 <SEP> -7. <SEP> 1021737668, <SEP> 25.0781652657 <SEP> ; <SEP> -11.4407047669, <SEP> 22.8584924996 <SEP> ; <SEP>
<tb> -14. <SEP> 3447919297, <SEP> 21.4490520815 <SEP> ; <SEP> -16. <SEP> 3976939224, <SEP> 20.4898067617 <SEP> ;
<tb> -17. <SEP> 8220011429, <SEP> 19.8423306934 <SEP> ; <SEP> -18. <SEP> 7262916698, <SEP> 19.4389130000 <SEP> ;
<tb> -19.1663428016, <SEP> 19. <SEP> 2447495545
<tb>
<Desc/Clms Page number 37>
<tb>
<tb> m=15 <SEP> -7.2947137247, <SEP> 26.9644699653 <SEP> ; <SEP> -11. <SEP> 8003034312, <SEP> 24.6482592959 <SEP> ; <SEP>
<tb> -14. <SEP> 8587939669, <SEP> 23.1544615283 <SEP> ; <SEP> -17.0649181370, <SEP> 22.1165594535 <SEP> ; <SEP>
<tb> -18. <SEP> 6471986915, <SEP> 21.3925954403 <SEP> ; <SEP> -19. <SEP> 7191341042, <SEP> 20.9118275261 <SEP> ; <SEP>
<tb> -20. <SEP> 3418287818, <SEP> 20.6361378957 <SEP> ; <SEP> -20. <SEP> 5462183256
<tb> m=16 <SEP> -7. <SEP> 4784635949, <SEP> 28. <SEP> 8559784487 <SEP> ;-12.1424827551, <SEP> 26.4478760957 <SEP> ; <SEP>
<tb> -15. <SEP> 3464816324, <SEP> 24.8738935490 <SEP> ; <SEP> -17. <SEP> 6959363478, <SEP> 23.7614799683 <SEP> ; <SEP>
<tb> -19. <SEP> 4246523327, <SEP> 22.9655586516 <SEP> ; <SEP> -20. <SEP> 6502404436, <SEP> 22.4128776078 <SEP> ; <SEP>
<tb> -21. <SEP> 4379698156, <SEP> 22.0627133056 <SEP> ; <SEP> -21. <SEP> 8237730778, <SEP> 21.8926662470
<tb> m=17 <SEP> -7. <SEP> 6543475694, <SEP> 30.7521483222 <SEP> ; <SEP> -12.4691619784, <SEP> 28.2563077987 <SEP> ; <SEP>
<tb> -15. <SEP> 8108990691, <SEP> 26.6058519104 <SEP> ; <SEP> -18.2951775164, <SEP> 25.4225585034 <SEP> ; <SEP>
<tb> -20. <SEP> 1605894729, <SEP> 24.5585534450 <SEP> ; <SEP> -21. <SEP> 5282660840, <SEP> 23.9384287933 <SEP> ; <SEP>
<tb> -22. <SEP> 4668764601, <SEP> 23.5193877036 <SEP> ; <SEP> -23. <SEP> 0161527444, <SEP> 23.2766166711 <SEP> ; <SEP>
<tb> -23.1970582109
<tb> m=18 <SEP> -7.8231445835, <SEP> 32.6525213363 <SEP> ; <SEP> -12. <SEP> 7819455282, <SEP> 30.0726807554 <SEP> ; <SEP>
<tb> -16. <SEP> 2545681590, <SEP> 28.3490792784 <SEP> ; <SEP> -18. <SEP> 8662638563, <SEP> 27.0981271991 <SEP> ; <SEP>
<tb> -20. <SEP> 8600257104, <SEP> 26.1693913642 <SEP> ; <SEP> -22. <SEP> 3600808236, <SEP> 25.4856138632 <SEP> ; <SEP>
<tb> -23. <SEP> 4378933084, <SEP> 25.0022244227 <SEP> ; <SEP> -24. <SEP> 1362741870, <SEP> 24.6925542646 <SEP> ; <SEP>
<tb> -24. <SEP> 4798038436, <SEP> 24. <SEP> 5412441597
<tb> m=19 <SEP> -7.9855178345, <SEP> 34.5567065132 <SEP> ; <SEP> -13. <SEP> 0821901901, <SEP> 31.8962504142 <SEP> ; <SEP>
<tb> -16. <SEP> 6796008200, <SEP> 30.1025072510 <SEP> ; <SEP> -19. <SEP> 4122071436, <SEP> 28.7867778706 <SEP> ;
<tb> -21. <SEP> 5270719955, <SEP> 27.7962699865 <SEP> ; <SEP> -23.1512112785, <SEP> 27.0520753105 <SEP> ; <SEP>
<tb> -24. <SEP> 3584393996, <SEP> 26.5081174988 <SEP> ; <SEP> -25. <SEP> 1941793616, <SEP> 26.1363057951 <SEP> ; <SEP>
<tb> -25. <SEP> 6855663388, <SEP> 25.9191817486 <SEP> ; <SEP> -25. <SEP> 8480312755
<tb>
On implémente ainsi les filtres numériques, à partir des valeurs du tableau 1, en prévoyant des cascades de cellules d'ordre 2 (pour m pair), et une cellule supplémentaire (pour m impair), à partir des relations [A14] données ci-avant.
<tb> m=15 <SEP> -7.2947137247, <SEP> 26.9644699653 <SEP> ; <SEP> -11. <SEP> 8003034312, <SEP> 24.6482592959 <SEP> ; <SEP>
<tb> -14. <SEP> 8587939669, <SEP> 23.1544615283 <SEP> ; <SEP> -17.0649181370, <SEP> 22.1165594535 <SEP> ; <SEP>
<tb> -18. <SEP> 6471986915, <SEP> 21.3925954403 <SEP> ; <SEP> -19. <SEP> 7191341042, <SEP> 20.9118275261 <SEP> ; <SEP>
<tb> -20. <SEP> 3418287818, <SEP> 20.6361378957 <SEP> ; <SEP> -20. <SEP> 5462183256
<tb> m=16 <SEP> -7. <SEP> 4784635949, <SEP> 28. <SEP> 8559784487 <SEP> ;-12.1424827551, <SEP> 26.4478760957 <SEP> ; <SEP>
<tb> -15. <SEP> 3464816324, <SEP> 24.8738935490 <SEP> ; <SEP> -17. <SEP> 6959363478, <SEP> 23.7614799683 <SEP> ; <SEP>
<tb> -19. <SEP> 4246523327, <SEP> 22.9655586516 <SEP> ; <SEP> -20. <SEP> 6502404436, <SEP> 22.4128776078 <SEP> ; <SEP>
<tb> -21. <SEP> 4379698156, <SEP> 22.0627133056 <SEP> ; <SEP> -21. <SEP> 8237730778, <SEP> 21.8926662470
<tb> m=17 <SEP> -7. <SEP> 6543475694, <SEP> 30.7521483222 <SEP> ; <SEP> -12.4691619784, <SEP> 28.2563077987 <SEP> ; <SEP>
<tb> -15. <SEP> 8108990691, <SEP> 26.6058519104 <SEP> ; <SEP> -18.2951775164, <SEP> 25.4225585034 <SEP> ; <SEP>
<tb> -20. <SEP> 1605894729, <SEP> 24.5585534450 <SEP> ; <SEP> -21. <SEP> 5282660840, <SEP> 23.9384287933 <SEP> ; <SEP>
<tb> -22. <SEP> 4668764601, <SEP> 23.5193877036 <SEP> ; <SEP> -23. <SEP> 0161527444, <SEP> 23.2766166711 <SEP> ; <SEP>
<tb> -23.1970582109
<tb> m=18 <SEP> -7.8231445835, <SEP> 32.6525213363 <SEP> ; <SEP> -12. <SEP> 7819455282, <SEP> 30.0726807554 <SEP> ; <SEP>
<tb> -16. <SEP> 2545681590, <SEP> 28.3490792784 <SEP> ; <SEP> -18. <SEP> 8662638563, <SEP> 27.0981271991 <SEP> ; <SEP>
<tb> -20. <SEP> 8600257104, <SEP> 26.1693913642 <SEP> ; <SEP> -22. <SEP> 3600808236, <SEP> 25.4856138632 <SEP> ; <SEP>
<tb> -23. <SEP> 4378933084, <SEP> 25.0022244227 <SEP> ; <SEP> -24. <SEP> 1362741870, <SEP> 24.6925542646 <SEP> ; <SEP>
<tb> -24. <SEP> 4798038436, <SEP> 24. <SEP> 5412441597
<tb> m=19 <SEP> -7.9855178345, <SEP> 34.5567065132 <SEP> ; <SEP> -13. <SEP> 0821901901, <SEP> 31.8962504142 <SEP> ; <SEP>
<tb> -16. <SEP> 6796008200, <SEP> 30.1025072510 <SEP> ; <SEP> -19. <SEP> 4122071436, <SEP> 28.7867778706 <SEP> ;
<tb> -21. <SEP> 5270719955, <SEP> 27.7962699865 <SEP> ; <SEP> -23.1512112785, <SEP> 27.0520753105 <SEP> ; <SEP>
<tb> -24. <SEP> 3584393996, <SEP> 26.5081174988 <SEP> ; <SEP> -25. <SEP> 1941793616, <SEP> 26.1363057951 <SEP> ; <SEP>
<tb> -25. <SEP> 6855663388, <SEP> 25.9191817486 <SEP> ; <SEP> -25. <SEP> 8480312755
<tb>
On implémente ainsi les filtres numériques, à partir des valeurs du tableau 1, en prévoyant des cascades de cellules d'ordre 2 (pour m pair), et une cellule supplémentaire (pour m impair), à partir des relations [A14] données ci-avant.
On réalise ainsi des filtres numériques sous une forme de réponse impulsionnelle infinie, aisément paramétrable comme montré ci-avant. Il est à noter qu'une implémentation sous une forme de réponse impulsionnelle finie peut être envisagée et consiste à calculer le spectre complexe de la fonction de transfert à partir de
<Desc/Clms Page number 38>
la formule analytique, puis à en déduire une réponse impulsionnelle finie par transformée de Fourier inverse.
On applique ensuite une opération de convolution pour le filtrage.
Ainsi, en introduisant cette pré-compensation du champ proche à l'encodage, on définit une représentation ambisonique modifiée (figure 8), en adoptant comme représentation transmissible des signaux exprimés dans le domaine fréquentiel, sous la forme :
Comme indiqué ci-avant, R est une distance de référence à laquelle est associé un effet de champ proche compensé et c est la vitesse du son (typiquement 340 m/s dans l'air).
Comme indiqué ci-avant, R est une distance de référence à laquelle est associé un effet de champ proche compensé et c est la vitesse du son (typiquement 340 m/s dans l'air).
Cette représentation ambisonique modifiée possède les mêmes propriétés de scalabilité (schématiquement représentée par des données transmises "entourées" près de la flèche TR de la figure 1) et obéit aux mêmes transformations de rotation du champ (module 4 de la figure 1) que la représentation ambisonique habituelle.
On indique ci-après les opérations à mettre en #uvre pour le décodage des signaux ambisoniques reçus.
On indique tout d'abord que l'opération de décodage est adaptable à un dispositif de restitution quelconque, de rayon R2, différent de la distance de référence R ciavant. A cet effet, on applique des filtres de type
<Desc/Clms Page number 39>
HmNFC(#/c,R/c)(#), tels que décrits plus haut, mais avec des paramètres de distance R et R2, au lieu de p et R. En particulier, il est à noter que seul le paramètre R/c est à mémoriser (et/ou transmettre) entre l'encodage et le décodage.
En se référant à la figure 12, le module de filtrage qui y est représenté est prévu par exemple dans une unité de traitement d'un dispositif de restitution. Les composantes ambisoniques reçues ont été pré-compensées à l'encodage pour une distance de référence R1 en tant que seconde distance. Toutefois, le dispositif de restitution comporte une pluralité de hauts-parleurs disposés à une troisième distance R2 d'un point de perception auditive P, cette troisième distance R2 étant différente de la seconde distance précitée R1. Le module de filtrage de la figure 12, sous la forme HmNFC(R1/c,R2/c)(#), adapte alors, à la réception des données, la pré-compensation à la distance R1 pour une restitution à la distance R2. Bien entendu, comme indiqué ci-avant, le dispositif de restitution reçoit aussi le paramètre R1/c.
Il est à noter que l'invention permet en outre de mixer plusieurs représentations ambisoniques de champs sonores (sources réelles et/ou virtuelles), dont les distances de référence R sont différentes (le cas échéant avec des distances de référence infinies et correspondant à des sources lointaines). Préférentiellement, on filtrera une pré-compensation de toutes ces sources à une distance de référence la plus petite, avant de mélanger les signaux
<Desc/Clms Page number 40>
ambisoniques, ce qui permet à la restitution d'obtenir une définition correcte du relief sonore.
Dans le cadre d'un traitement dit de "focalisation sonore" avec, à la restitution, un effet d'enrichissement sonore pour une direction choisie de l'espace (à la manière d'un projecteur lumineux éclairant dans une direction choisie en optique), impliquant un traitement matriciel de focalisation sonore (avec pondération des composantes ambisoniques), on applique avantageusement l'encodage de distance avec pré-compensation de champ proche de façon combinée au traitement de focalisation.
Dans ce qui suit, on décrit un procédé de décodage ambisonique, avec compensation du champ proche des hautsparleurs, à la restitution.
Pour reconstruire un champ acoustique encodé suivant le formalisme ambisonique, à partir des composantes Bmn# et en utilisant des hauts-parleurs d'un dispositif de restitution qui prévoit un emplacement "idéal" d'un auditeur qui correspond au point de restitution P de la figure 7, l'onde émise par chaque haut-parleur est définie par un traitement préalable de "ré-encodage" du champ ambisonique au centre du dispositif de restitution, comme suit.
Dans ce contexte de "ré-encodage", on considère dans un premier temps et pour simplification que les sources émettent en champ lointain.
<Desc/Clms Page number 41>
En se référant à nouveau à la figure 7, l'onde émise par un haut-parleur d'indice i et d'incidence (#1 et Si) est alimenté par un signal S1. Ce haut-parleur participe à la reconstruction de la composante Bmn, par sa contribution Si . Ymn#(#i,#i).
Le vecteur c1 des coefficients d'encodage associés aux hauts-parleurs d'indice i s'exprime par la relation :
Le vecteur S des signaux émanant de l'ensemble des N hauts-parleurs est donné par l'expression :
La matrice d'encodage de ces N hauts-parleurs (qui correspond finalement à une matrice de "ré-encodage"), s'exprime par la relation :
C=[C1 C2 ...CN] [B3]
Le vecteur S des signaux émanant de l'ensemble des N hauts-parleurs est donné par l'expression :
La matrice d'encodage de ces N hauts-parleurs (qui correspond finalement à une matrice de "ré-encodage"), s'exprime par la relation :
C=[C1 C2 ...CN] [B3]
<Desc/Clms Page number 42>
où chaque terme c1 représente un vecteur selon la relation [B1] ci-avant.
Ainsi, la reconstruction du champ ambisonique B' est définie par la relation :
La relation [B4] définit ainsi une opération de réencodage, préalable à la restitution. Finalement, le décodage, en tant que tel, consiste à comparer les signaux ambisoniques originaux et reçus par le dispositif de restitution, sous la forme :
aux signaux ré-encodés B, pour définir la relation générale :
B' = B [B6]
La relation [B4] définit ainsi une opération de réencodage, préalable à la restitution. Finalement, le décodage, en tant que tel, consiste à comparer les signaux ambisoniques originaux et reçus par le dispositif de restitution, sous la forme :
aux signaux ré-encodés B, pour définir la relation générale :
B' = B [B6]
<Desc/Clms Page number 43>
Il s'agit, en particulier, de déterminer les coefficients d'une matrice de décodage D, qui vérifie la relation :
S = D.B [B7] De préférence, le nombre de hauts-parleurs est supérieur ou égal au nombre de composantes ambisoniques à décoder et la matrice de décodage D s'exprime, en fonction de la matrice de ré-encodage C, sous la forme :
D = CT (C.CT)-1 [B8] où la notation CT correspond à la transposée de la matrice C.
S = D.B [B7] De préférence, le nombre de hauts-parleurs est supérieur ou égal au nombre de composantes ambisoniques à décoder et la matrice de décodage D s'exprime, en fonction de la matrice de ré-encodage C, sous la forme :
D = CT (C.CT)-1 [B8] où la notation CT correspond à la transposée de la matrice C.
Il est à noter que la définition d'un décodage vérifiant des critères différents par bandes de fréquences est possible, ce qui permet d'offrir une restitution optimisée en fonction des conditions d'écoute, notamment pour ce qui concerne la contrainte de positionnement au centre 0 de la sphère de la figure 3, lors de la restitution. A cet effet, on prévoit avantageusement un filtrage simple, en égalisation fréquentielle par paliers, à chaque composante ambisonique.
Toutefois, pour obtenir une reconstruction d'une onde originellement encodée, il faut corriger l'hypothèse de champ lointain pour les hauts-parleurs, c'est-à-dire exprimer l'effet de leur champ proche dans la matrice de ré-encodage C ci-avant et inverser ce nouveau système pour définir le décodeur. A cet effet, en supposant une
<Desc/Clms Page number 44>
concentricité des hauts-parleurs (disposés à une même distance R du point P de la figure 7), tous les hautsparleurs ont un même effet de champ proche Fm(R/c)(#), sur chaque composante ambisonique du type B'mn#. En introduisant les termes de champ proche sous la forme d'une matrice diagonale, la relation [B4] ci-avant devient :
La relation [B7] ci-avant devient :
Ainsi, l'opération de matriçage est précédée par une opération de filtrage qui compense le champ proche sur chaque composante Bmn#, et qui peut être mise en #uvre sous forme numérique, comme décrit ci-avant, en référence à la relation [A14].
La relation [B7] ci-avant devient :
Ainsi, l'opération de matriçage est précédée par une opération de filtrage qui compense le champ proche sur chaque composante Bmn#, et qui peut être mise en #uvre sous forme numérique, comme décrit ci-avant, en référence à la relation [A14].
On retiendra qu'en pratique, la matrice C de "ré-encodage" est propre au dispositif de restitution. Ses coefficients peuvent être déterminés initialement par paramétrage et caractérisation sonore du dispositif de restitution réagissant à un excitation prédéterminée. La matrice de décodage D est, elle aussi, propre au dispositif de restitution. Ses coefficients peuvent être déterminés par la relation [B8]. En reprenant la notation précédente où
<Desc/Clms Page number 45>
B est la matrice des composantes ambisoniques précompensées, ces dernières peuvent être transmises au dispositif de restitution sous forme matricielle B avec :
Le dispositif de restitution décode ensuite les données reçues sous forme matricielle B (vecteur colonne des composantes transmises) en appliquant la matrice de décodage D aux composantes ambisoniques pré-compensées, pour former les signaux Si destinés à alimenter les hautparleurs HP1, avec :
En se référant à nouveau à la figure 12, si une opération de décodage doit être adaptée à un dispositif de restitution de rayon R2 différent de la distance de référence R1, un module d'adaptation préalable au décodage proprement dit et décrit ci-avant permet de filtrer chaque composante ambisonique #mn#, pour l'adapter à un dispositif de restitution de rayon R2. L'opération de décodage proprement dite est effectuée ensuite, comme décrit ci-avant, en référence à la relation [B11].
Le dispositif de restitution décode ensuite les données reçues sous forme matricielle B (vecteur colonne des composantes transmises) en appliquant la matrice de décodage D aux composantes ambisoniques pré-compensées, pour former les signaux Si destinés à alimenter les hautparleurs HP1, avec :
En se référant à nouveau à la figure 12, si une opération de décodage doit être adaptée à un dispositif de restitution de rayon R2 différent de la distance de référence R1, un module d'adaptation préalable au décodage proprement dit et décrit ci-avant permet de filtrer chaque composante ambisonique #mn#, pour l'adapter à un dispositif de restitution de rayon R2. L'opération de décodage proprement dite est effectuée ensuite, comme décrit ci-avant, en référence à la relation [B11].
<Desc/Clms Page number 46>
On décrit ci-après une application de l'invention à la synthèse binaurale.
On se réfère à la figure 13A sur laquelle un auditeur disposant d'un casque à deux écouteurs d'un dispositif de synthèse binaurale est représenté. Les deux oreilles de l'auditeur sont disposées à des points respectifs OL (oreille gauche) et OR (oreille droite) de l'espace. Le centre de la tête de l'auditeur est disposé au point 0 et le rayon de la tête de l'auditeur est de valeur a. Une source sonore doit être perçue auditivement à un point M de l' espace, situé à une distance r du centre de la tête de l'auditeur (et respectivement à des distances rR de l'oreille droite et rL de l'oreille gauche). Par ailleurs, la direction de la source placée au point M est définie par les vecteurs r , #R et #L.
De façon générale, la synthèse binaurale se définit comme suit.
Chaque auditeur a une forme d'oreille qui lui est propre.
La perception d'un son dans l'espace par cet auditeur se fait par apprentissage, depuis la naissance, en fonction de la forme des oreilles (notamment la forme des pavillons et les dimensions de la tête) propre à cet auditeur. La perception d'un son dans l'espace se manifeste entre autres par le fait que le son parvient à une oreille, avant l'autre oreille, ce qui se traduit par un retard # entre les signaux à émettre par chaque écouteur du dispositif de restitution appliquant la synthèse binaurale.
<Desc/Clms Page number 47>
Le dispositif de restitution est paramétré initialement, pour un même auditeur, en balayant une source sonore autour de sa tête, à une même distance R du centre de sa tête. On comprendra ainsi que cette distance R peut être considérée comme une distance entre un "point de restitution" comme énoncé ci-avant et un point de perception auditive (ici le centre 0 de la tête de l' auditeur) .
Dans ce qui suit, l'indice L est associé au signal à restituer par l'écouteur accolé à l'oreille gauche et l'indice R est associé au signal à restituer par l'écouteur accolé à l'oreille droite. En se référant à la figure 13B, on applique au signal initial S un retard pour chaque voie destinée à produire un signal pour un écouteur distinct. Ces retards iL et #R sont fonction d'un retard maximum #MAX qui correspond ici au rapport a/c où a, comme indiqué précédemment, correspond au rayon de la tête de l'auditeur et c à la vitesse du son. En particulier, ces retards sont définis en fonction de la différence de distance du point 0 (centre de la tête) au point M (position de la source dont le son est à restituer, sur la figure 13A) et de chaque oreille à ce point M.
Avantageusement, on applique en outre des gains respectifs gL et gR, à chaque voie, qui sont fonction d'un rapport des distances du point 0 au point M et de chaque oreille au point M. Des modules respectifs appliqués à chaque voie 2L et 2R encodent les signaux de chaque voie, dans une représentation ambisonique, avec pré-compensation de champ proche NFC (pour "Near Field Compensation") au sens de la
<Desc/Clms Page number 48>
présente invention. On comprendra ainsi que, par la mise en #uvre du procédé au sens de la présente invention, on peut définir les signaux issus de la source M, non seulement par leur direction (angles azimutaux #L et #R et angles d' élévation 8L et OR), mais aussi en fonction de la distance séparant chaque oreille rL et rR de la source M.
Les signaux ainsi encodés sont transmis au dispositif de restitution comportant des modules de décodage ambisonique, pour chaque voie, 5L et 5R. Ainsi, on applique un encodage/décodage ambisonique, avec compensation de champ proche, pour chaque voie (écouteur gauche, écouteur droit) dans la restitution avec synthèse binaurale (ici de type "B-FORMAT"), sous forme dédoublée.
La compensation de champ proche s'effectue, pour chaque voie, avec comme première distance p une distance rL et rR entre chaque oreille et la position M de la source sonore à restituer.
On décrit ci-après une application de la compensation au sens de l'invention, au contexte de l'acquisition sonore en représentation ambisonique.
On se réfère à la figure 14 sur laquelle un microphone 141 comporte une pluralité de capsules transductrices, capables de capter des pressions acoustiques et restituer des signaux électriques Si, ...,SN. Les capsules CAPi sont agencées sur une sphère de rayon r prédéterminé (ici, une sphère rigide, telle qu'une balle de ping-pong par exemple). Les capsules sont espacées d'un pas régulier sur la sphère. En pratique, on choisit le nombre N de capsules
<Desc/Clms Page number 49>
en fonction de l'ordre M désiré pour la représentation ambisonique.
On indique ci-après, dans le contexte d'un microphone comportant des capsules agencées sur une sphère rigide, comment compenser l'effet de champ proche, dès l'encodage dans le contexte ambisonique. On montrera ainsi que la pré-compensation du champ proche peut s'appliquer non seulement pour la simulation de source virtuelle, comme indiqué ci-avant, mais aussi à l'acquisition et, de façon plus générale, en combinant la pré-compensation de champ proche à tous types de traitements impliquant une représentation ambisonique.
En présence d'une sphère rigide (susceptible d'introduire une diffraction des ondes sonores reçues), la relation [Al] donnée ci-avant devient :
Les dérivées des fonctions de Hankel sphériques h-m obéissent à la loi de récurrence : (2m+1)hm-'(x)=m hm-1-(x)-(m+1)hm+1-(x) [C2] On déduit les composantes ambisoniques Bmn# du champ initial à partir du champ de pression à la surface de la
Les dérivées des fonctions de Hankel sphériques h-m obéissent à la loi de récurrence : (2m+1)hm-'(x)=m hm-1-(x)-(m+1)hm+1-(x) [C2] On déduit les composantes ambisoniques Bmn# du champ initial à partir du champ de pression à la surface de la
<Desc/Clms Page number 50>
sphère, en mettant en #uvre des opérations de projection et d'égalisation données par la relation :
Dans cette expression, EQm est un filtre égaliseur qui compense une pondération Wm qui est liée à la directivité des capsules et qui inclut en outre la diffraction par la sphère rigide.
Dans cette expression, EQm est un filtre égaliseur qui compense une pondération Wm qui est liée à la directivité des capsules et qui inclut en outre la diffraction par la sphère rigide.
L'expression de ce filtre EQm est donnée par la relation suivante :
Les coefficients de ce filtre d'égalisation ne sont pas stables et on obtient un gain infini en très basses fréquences. D'ailleurs, il convient de noter que les composantes harmoniques sphériques, elles-mêmes, ne sont pas d'amplitude finie lorsque le champ sonore n'est pas limité à une propagation d'ondes planes, c'est-à-dire issues de sources lointaines, comme on l'a vu précédemment.
Les coefficients de ce filtre d'égalisation ne sont pas stables et on obtient un gain infini en très basses fréquences. D'ailleurs, il convient de noter que les composantes harmoniques sphériques, elles-mêmes, ne sont pas d'amplitude finie lorsque le champ sonore n'est pas limité à une propagation d'ondes planes, c'est-à-dire issues de sources lointaines, comme on l'a vu précédemment.
Par ailleurs, si, plutôt que de prévoir des capsules encastrées dans une sphère solide, on prévoit des capsules de type cardioïdes, avec une directivité en champ lointain donnée par l'expression :
<Desc/Clms Page number 51>
G(#) = [alpha]+(1-[alpha])cos# [C5] En considérant ces capsules montées sur un support "transparent acoustiquement" , le terme de pondération à compenser devient :
Il apparaît encore que les coefficients d'un filtre d'égalisation correspondant à l'inverse analytique de cette pondération donnée par la relation [C6] sont divergents pour les très basses fréquences.
Il apparaît encore que les coefficients d'un filtre d'égalisation correspondant à l'inverse analytique de cette pondération donnée par la relation [C6] sont divergents pour les très basses fréquences.
De façon générale, on indique que pour tout type de directivité de capteurs, le gain du filtre EQm pour compenser la pondération Wm liée à la directivité des capteurs est infini pour les basses fréquences sonores. En se référant à la figure 14, on applique avantageusement une pré-compensation de champ proche dans l'expression même du filtre d'égalisation EQm, donnée par la relation :
Ainsi, les signaux S1 à SN sont récupérés du microphone 141. Le cas échéant, on applique une pré-égalisation de ces signaux par un module de traitement 142. Le module 143 permet d'exprimer ces signaux dans le contexte ambisonique, sous forme matricielle. Le module 144 applique le filtre de la relation [C7] aux composantes
Ainsi, les signaux S1 à SN sont récupérés du microphone 141. Le cas échéant, on applique une pré-égalisation de ces signaux par un module de traitement 142. Le module 143 permet d'exprimer ces signaux dans le contexte ambisonique, sous forme matricielle. Le module 144 applique le filtre de la relation [C7] aux composantes
<Desc/Clms Page number 52>
ambisoniques exprimées en fonction du rayon r de la sphère du microphone 141. La compensation de champ proche s'effectue pour une distance de référence R en tant que seconde distance. Les signaux encodés et ainsi filtrés par le module 144 peuvent être transmis, le cas échéant, avec le paramètre représentatif de la distance de référence R/c.
Ainsi, il apparaît dans les différents modes de réalisation liés respectivement à la création d'une source virtuelle en champ proche, à l'acquisition de signaux sonores issues de sources réelles, ou même à la restitution (pour compenser un effet de champ proche des hauts-parleurs), que la compensation de champ proche au sens de la présente invention peut s'appliquer à tous types de traitements faisant intervenir une représentation ambisonique. Cette compensation de champ proche permet d'appliquer la représentation ambisonique à une multiplicité de contextes sonores où la direction d'une source et avantageusement sa distance doivent être prises en compte. De plus, la possibilité de la représentation de phénomènes sonores de tous types (champs proches ou lointains) dans le contexte ambisonique est assurée par cette pré-compensation, du fait de la limitation à des valeurs réelles finies des composantes ambisoniques.
Bien entendu, la présente invention ne se limite pas à la forme de réalisation décrite ci-avant à titre d'exemple ; elle s'étend à d'autres variantes.
<Desc/Clms Page number 53>
Ainsi, on comprendra que la pré-compensation de champ proche peut être intégrée, à l'encodage, autant pour une source proche que pour une source lointaine. Dans ce dernier cas (source lointaine et réception d'ondes planes), la distance p exprimée ci-avant sera considérée comme infinie, sans modifier de façon substantielle l'expression des filtres Hm donnée ci-avant. Ainsi, le traitement utilisant des processeurs d'effet de salle qui fournissent en général des signaux décorrélés utilisables pour modéliser le champ diffus tardif (réverbération tardive) peut être combiné à une pré-compensation de champ proche. On peut considérer que ces signaux sont de même énergie et correspondent à une part de champ diffus correspondant à la composante omnidirective W = B00+1 (figure 4). On peut alors construire les diverses composantes harmoniques sphériques (avec un ordre M choisi) en appliquant une correction de gain pour chaque composante ambisonique et on applique une compensation de champ proche des hauts-parleurs (avec une distance de référence R séparant les haut-parleurs du point de perception auditive comme représenté sur la figure 7).
Bien entendu, le principe d'encodage au sens de la présente invention est généralisable à des modèles de rayonnement autres que des sources monopolaires (réelles ou virtuelles) et/ou des hauts-parleurs. En effet, toute forme de rayonnement (notamment une source étalée dans l'espace) peut être exprimée par intégration d'une distribution continue de sources élémentaires ponctuelles.
<Desc/Clms Page number 54>
En outre, dans le contexte de la restitution, il est possible d'adapter la compensation de champ proche à tout contexte de restitution. A cet effet, il peut être prévu de calculer des fonctions de transfert (ré-encodage des composantes harmoniques sphériques de champ proche pour chaque haut-parleur, compte tenu d'une propagation réelle dans la salle où le son est restitué), ainsi qu'une inversion de ce ré-encodage pour redéfinir le décodage.
On a décrit ci-avant un procédé de décodage dans lequel on appliquait un système matriciel faisant intervenir les composantes ambisoniques. Dans une variante, il peut être prévu un traitement généralisé par transformées de Fourier rapides (circulaire ou sphérique) pour limiter les temps de calcul et les ressources informatiques (en terme de mémoire) nécessaires au traitement de décodage.
Comme indiqué ci-avant en référence aux figures 9 et 10, on constate que le choix d'une distance de référence R par rapport à la distance p de la source en champ proche introduit une différence de gain pour différentes valeurs de la fréquence sonore. On indique que le procédé d'encodage avec pré-compensation peut être couplé à une compression audionumérique permettant de quantifier et d'ajuster le gain pour chaque sous-bande fréquentielle.
Avantageusement, la présente invention s'applique à tous types de systèmes de spatialisation sonore, notamment pour des applications de type "réalité virtuelle" (navigation dans des scènes virtuelles dans l'espace tridimensionnel, jeux avec spatialisation sonore tridimensionnelle,
<Desc/Clms Page number 55>
conversations de type "chat" sonorisées sur le réseau Internet), à des sonifications d'interfaces, à des logiciels d'édition audio pour enregistrer, mixer et restituer de la musique, mais aussi à l'acquisition, à partir d'usage de microphones tridimensionnels, pour la prise de son musicale ou cinématographique, ou encore pour la transmission d'ambiance sonore sur Internet, par exemple pour des "WebCam" sonorisées.
Claims (22)
- REVENDICATIONS 1. Procédé de traitement de données sonores, dans lequel : a) on code des signaux représentatifs d'au moins un son se propageant dans l'espace tridimensionnel et issu d'une source située à une première distance (p) d'un point de référence (0), pour obtenir une représentation du son par des composantes (Bmn#) exprimées dans une base d'harmoniques sphériques, d'origine correspondant audit point de référence (0), b) et on applique auxdites composantes (Bmn#) une compensation d'un effet de champ proche par un filtrage qui est fonction d'une seconde distance (R) définissant sensiblement, pour une restitution du son par un dispositif de restitution, une distance entre un point de restitution (HPi) et un point (P) de perception auditive.
- 2. Procédé selon la revendication 1, dans lequel, ladite source étant lointaine du point de référence (0), - on obtient des composantes d'ordres successifs m pour la représentation du son dans ladite base d'harmoniques sphériques, et - on applique un filtre (1/Fm) dont les coefficients, appliqués chacun à une composante d'ordre m, s'expriment analytiquement sous la forme de l'inverse d'un polynôme de puissance m, dont la variable est inversement proportionnelle à la fréquence sonore et à ladite seconde distance (R), pour compenser un effet de champ proche au niveau du dispositif de restitution.<Desc/Clms Page number 57>
- 3. Procédé selon la revendication 1, dans lequel, ladite source étant une source virtuelle prévue à ladite première distance (p) , - on obtient des composantes d'ordres successifs m pour la représentation du son dans ladite base d'harmoniques sphériques, et - on applique un filtre global (Hm) dont les coefficients, appliqués chacun à une composante d'ordre m, s'expriment analytiquement sous la forme d'une fraction, dont : - le numérateur est un polynôme de puissance m, dont la variable est inversement proportionnelle à la fréquence sonore et à ladite première distance (p), pour simuler un effet de champ proche de la source virtuelle, et - le dénominateur est un polynôme de puissance m, dont la variable est inversement proportionnelle à la fréquence sonore et à ladite seconde distance (R), pour compenser l'effet du champ proche de la source virtuelle dans les basses fréquences sonores.
- 4. Procédé selon l'une des revendications précédentes, dans lequel on transmet au dispositif de restitution les données codées et filtrées aux étapes a) et b) avec un paramètre représentatif de ladite seconde distance (R/c).
- 5. Procédé selon l'une des revendications 1 à 3, dans lequel, le dispositif de restitution comportant des moyens de lecture d'un support mémoire, on mémorise sur un support mémoire destiné à être lu par le dispositif de restitution les données codées et filtrées aux étapes a)<Desc/Clms Page number 58>et b) avec un paramètre représentatif de ladite seconde distance (R/c).
- 6. Procédé selon l'une des revendications 4 et 5, dans lequel, préalablement à une restitution sonore par un dispositif de restitution comportant une pluralité de hauts-parleurs disposés à une troisième distance (Rz) dudit point de perception auditive (P), on applique aux données codées et filtrées un filtre d'adaptation (Hm(R1/c,R2/c)) dont les coefficients sont fonction desdites seconde (R1) et troisième distances (R2).
- 7. Procédé selon la revendication 6, dans lequel les coefficients dudit filtre d' adaptation (Hm(R1/c,R2/c)), appliqués chacun à une composante d'ordre m, s'expriment analytiquement sous la forme d'une fraction, dont : - le numérateur est un polynôme de puissance m, dont la variable est inversement proportionnelle à la fréquence sonore et à ladite seconde distance (R), - et le dénominateur est un polynôme de puissance m, dont la variable est inversement proportionnelle à la fréquence sonore et à ladite troisième distance (R2).
- 8. Procédé selon l'une des revendications 2,3 et 7, dans lequel, pour la mise en #uvre de l'étape b), on prévoit : - pour des composantes d'ordre m pair, des filtres audionumériques sous la forme d'une cascade de cellules d'ordre deux ; et - pour des composantes d'ordre m impair, des filtres audionumériques sous la forme d'une cascade de cellules d'ordre deux et une cellule supplémentaire d'ordre un.<Desc/Clms Page number 59>
- 9. Procédé selon la revendication 8, dans lequel les coefficients d'un filtre audionumérique, pour une composante d'ordre m, sont définis à partir des valeurs numériques des racines desdits polynômes de puissance m.
- 10. Procédé selon l'une des revendications 2,3, 7,8 et 9, dans lequel lesdits polynômes sont des polynômes de Bessel.
- 11. Procédé selon l'une des revendications 1,2 et 4 à 10, dans lequel on prévoit un microphone comportant un réseau de transducteurs acoustiques agencés sensiblement sur la surface d'une sphère dont le centre correspond sensiblement audit point de référence (0), pour obtenir lesdits signaux représentatifs d'au moins un son se propageant dans l'espace tridimensionnel.
- 12. Procédé selon la revendication 11, dans lequel on applique à l'étape b) un filtre global pour, d'une part, compenser un effet de champ proche en fonction de ladite seconde distance (R) et, d'autre part, égaliser les signaux issus des transducteurs pour compenser une pondération de directivité desdits transducteurs.
- 13. Procédé selon l'une des revendications 11 et 12, dans lequel on prévoit un nombre de transducteurs fonction d'un nombre total choisi de composantes pour représenter le son dans ladite base d'harmoniques sphériques.<Desc/Clms Page number 60>
- 14. Procédé selon l'une des revendications précédentes, dans lequel on choisit à l'étape a) un nombre total de composantes dans la base des harmoniques sphériques pour obtenir, à la restitution, une région de l'espace autour du point de perception (P) dans laquelle la restitution du son est fidèle et dont les dimensions sont croissantes avec le nombre total de composantes.
- 15. Procédé selon la revendication 14, dans lequel on prévoit un dispositif de restitution comportant un nombre de haut-parleurs au moins égal audit nombre total de composantes.
- 16. Procédé selon l'une des revendications 1 à 5 et 8 à 13, dans lequel : - on prévoit un dispositif de restitution comportant au moins un premier et un second haut-parleur disposés à une distance choisie d'un auditeur, - on obtient, pour cet auditeur, une information de ressenti de la position dans l'espace de sources sonores situées à une distance de référence prédéterminée (R) de l'auditeur, et - on applique la compensation de l'étape b) avec ladite distance de référence sensiblement en tant que seconde distance.
- 17. Procédé selon l'une des revendications 1 à 3 et 8 à 13, prises en combinaison avec l'une des revendications 4 et 5, dans lequel :<Desc/Clms Page number 61>- on prévoit un dispositif de restitution comportant au moins un premier et un second haut-parleur disposés à une distance choisie d'un auditeur, - on obtient, pour cet auditeur, une information de ressenti de la position dans l'espace de sources sonores situées à une distance de référence prédéterminée (R2) de l'auditeur, et - préalablement à une restitution sonore par le dispositif de restitution, on applique aux données codées et filtrées aux étapes a) et b) un filtre d' adaptation (Hm(R/c,R2/c)) dont les coefficients sont fonction de la seconde distance (R) et sensiblement de la distance de référence (R2).
- 18. Procédé selon l'une des revendications 16 et 17, dans lequel .- le dispositif de restitution comporte un casque à deux écouteurs pour les oreilles respectives de l'auditeur, et - séparément pour chaque écouteur, on applique le codage et le filtrage des étapes a) et b) pour des signaux respectifs destinés à alimenter chaque écouteur, avec, en tant que première distance (p), respectivement une distance (rR,rL) séparant chaque oreille d'une position (M) d'une source à restituer.
- 19. Procédé selon l'une des revendications précédentes, dans lequel on met en forme, aux étapes a) et b), un système matriciel comportant au moins : - une matrice (B) comportant lesdites composantes dans la base des harmoniques sphériques, et<Desc/Clms Page number 62>- une matrice diagonale (Diag(l/Fm)) dont les coefficients correspondent à des coefficients de filtrage de l'étape b), et on multiplie lesdites matrices pour obtenir une matrice résultat de composantes compensées (B).
- 20. Procédé selon la revendication 19, dans lequel : - le dispositif de restitution comporte une pluralité de haut-parleurs disposés sensiblement à une même distance (R) du point de perception auditive (P), et - pour décoder lesdites données codées et filtrées aux étapes a) et b) et former des signaux adaptés pour alimenter lesdits haut-parleurs : * on forme un système matriciel comportant ladite matrice résultat (#) et une matrice de décodage (D) prédéterminée, propre au dispositif de restitution, et * on obtient une matrice (S) comportant des coefficients représentatifs des signaux d'alimentation des hauts-parleurs par multiplication de la matrice des composantes compensées (B) par ladite matrice de décodage (D).
- 21. Dispositif d'acquisition sonore, comportant un microphone muni d'un réseau de transducteurs acoustiques disposés sensiblement sur la surface d'une sphère, caractérisé en ce qu'il comporte en outre une unité de traitement agencée pour : - recevoir des signaux émanant chacun d'un transducteur,<Desc/Clms Page number 63>- appliquer auxdits signaux un codage pour obtenir une représentation du son par des composantes (Bmn#) exprimées dans une base d'harmoniques sphériques, d'origine correspondant au centre de ladite sphère (0), - et appliquer auxdites composantes (Bmn#) un filtrage qui est fonction, d'une part, d'une distance correspondant au rayon de la sphère (r) et, d'autre part, d'une distance de référence (R).
- 22. Dispositif selon la revendication 21, caractérisé en ce que ledit filtrage consiste, d'une part, à égaliser, en fonction du rayon de la sphère, les signaux issus des transducteurs pour compenser une pondération de directivité desdits transducteurs et, d'autre part, à compenser un effet de champ proche en fonction d'une distance de référence choisie (R), définissant sensiblement, pour une restitution du son, une distance entre un point de restitution (HP1) et un point (P) de perception auditive.
Priority Applications (13)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0214444A FR2847376B1 (fr) | 2002-11-19 | 2002-11-19 | Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede |
DE60304358T DE60304358T2 (de) | 2002-11-19 | 2003-11-13 | Verfahren zur verarbeitung von audiodateien und erfassungsvorrichtung zur anwendung davon |
PCT/FR2003/003367 WO2004049299A1 (fr) | 2002-11-19 | 2003-11-13 | Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede |
US10/535,524 US7706543B2 (en) | 2002-11-19 | 2003-11-13 | Method for processing audio data and sound acquisition device implementing this method |
AT03782553T ATE322065T1 (de) | 2002-11-19 | 2003-11-13 | Verfahren zur verarbeitung von audiodateien und erfassungsvorrichtung zur anwendung davon |
EP03782553A EP1563485B1 (fr) | 2002-11-19 | 2003-11-13 | Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede |
ES03782553T ES2261994T3 (es) | 2002-11-19 | 2003-11-13 | Metodo de tratamiento de datos sonoros y dispositivos de adquisicion sonoro que ejecuta este procedimiento. |
CN2003801086029A CN1735922B (zh) | 2002-11-19 | 2003-11-13 | 处理音频数据的方法和实行这个方法的声音获取设备 |
KR1020057009105A KR100964353B1 (ko) | 2002-11-19 | 2003-11-13 | 오디오 데이터를 처리하기 위한 방법 및 이에 따른 사운드수집 장치 |
BRPI0316718-6A BRPI0316718B1 (pt) | 2002-11-19 | 2003-11-13 | Processo de tratamento de dados sonoros e dispositivo de aquisição sonora, aplicando esse processo |
JP2004554598A JP4343845B2 (ja) | 2002-11-19 | 2003-11-13 | オーディオデータ処理方法及びこの方法を実現する集音装置 |
AU2003290190A AU2003290190A1 (en) | 2002-11-19 | 2003-11-13 | Method for processing audio data and sound acquisition device therefor |
ZA200503969A ZA200503969B (en) | 2002-11-19 | 2005-05-17 | Method for processing audio data and sound acquisition device therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0214444A FR2847376B1 (fr) | 2002-11-19 | 2002-11-19 | Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2847376A1 true FR2847376A1 (fr) | 2004-05-21 |
FR2847376B1 FR2847376B1 (fr) | 2005-02-04 |
Family
ID=32187712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0214444A Expired - Fee Related FR2847376B1 (fr) | 2002-11-19 | 2002-11-19 | Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede |
Country Status (13)
Country | Link |
---|---|
US (1) | US7706543B2 (fr) |
EP (1) | EP1563485B1 (fr) |
JP (1) | JP4343845B2 (fr) |
KR (1) | KR100964353B1 (fr) |
CN (1) | CN1735922B (fr) |
AT (1) | ATE322065T1 (fr) |
AU (1) | AU2003290190A1 (fr) |
BR (1) | BRPI0316718B1 (fr) |
DE (1) | DE60304358T2 (fr) |
ES (1) | ES2261994T3 (fr) |
FR (1) | FR2847376B1 (fr) |
WO (1) | WO2004049299A1 (fr) |
ZA (1) | ZA200503969B (fr) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2094032A1 (fr) * | 2008-02-19 | 2009-08-26 | Deutsche Thomson OHG | Signal audio, procédé et appareil pour coder ou transmettre celui-ci et procédé et appareil pour le traiter |
EP2205007A1 (fr) * | 2008-12-30 | 2010-07-07 | Fundació Barcelona Media Universitat Pompeu Fabra | Procédé et appareil pour le codage tridimensionnel de champ acoustique et la reconstruction optimale |
WO2010089357A3 (fr) * | 2009-02-04 | 2010-11-11 | Richard Furse | Système sonore |
US10582329B2 (en) | 2016-01-08 | 2020-03-03 | Sony Corporation | Audio processing device and method |
US10595148B2 (en) | 2016-01-08 | 2020-03-17 | Sony Corporation | Sound processing apparatus and method, and program |
CN111537058A (zh) * | 2020-04-16 | 2020-08-14 | 哈尔滨工程大学 | 一种基于Helmholtz方程最小二乘法的声场分离方法 |
Families Citing this family (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10328335B4 (de) * | 2003-06-24 | 2005-07-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Wellenfeldsyntesevorrichtung und Verfahren zum Treiben eines Arrays von Lautsprechern |
US20050271216A1 (en) * | 2004-06-04 | 2005-12-08 | Khosrow Lashkari | Method and apparatus for loudspeaker equalization |
CN101263739B (zh) * | 2005-09-13 | 2012-06-20 | Srs实验室有限公司 | 用于音频处理的系统和方法 |
ES2335246T3 (es) * | 2006-03-13 | 2010-03-23 | France Telecom | Sintesis y especializacion sonora conjunta. |
FR2899424A1 (fr) * | 2006-03-28 | 2007-10-05 | France Telecom | Procede de synthese binaurale prenant en compte un effet de salle |
US8180067B2 (en) * | 2006-04-28 | 2012-05-15 | Harman International Industries, Incorporated | System for selectively extracting components of an audio input signal |
US7876903B2 (en) * | 2006-07-07 | 2011-01-25 | Harris Corporation | Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system |
US8036767B2 (en) * | 2006-09-20 | 2011-10-11 | Harman International Industries, Incorporated | System for extracting and changing the reverberant content of an audio input signal |
WO2008039339A2 (fr) * | 2006-09-25 | 2008-04-03 | Dolby Laboratories Licensing Corporation | Résolution spatiale améliorée du champ acoustique pour systèmes de lecture audio par dérivation de signaux à termes angulaires d'ordre supérieur |
DE102006053919A1 (de) * | 2006-10-11 | 2008-04-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen einer Anzahl von Lautsprechersignalen für ein Lautsprecher-Array, das einen Wiedergaberaum definiert |
JP2008118559A (ja) * | 2006-11-07 | 2008-05-22 | Advanced Telecommunication Research Institute International | 3次元音場再生装置 |
JP4873316B2 (ja) * | 2007-03-09 | 2012-02-08 | 株式会社国際電気通信基礎技術研究所 | 音響空間共有装置 |
WO2009109217A1 (fr) * | 2008-03-03 | 2009-09-11 | Nokia Corporation | Appareil de capture et de rendu d'une pluralité de canaux audio |
EP2154910A1 (fr) * | 2008-08-13 | 2010-02-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Appareil de fusion de flux audio spatiaux |
EP2154677B1 (fr) | 2008-08-13 | 2013-07-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Appareil pour déterminer un signal audio spatial converti |
GB0815362D0 (en) * | 2008-08-22 | 2008-10-01 | Queen Mary & Westfield College | Music collection navigation |
US8819554B2 (en) * | 2008-12-23 | 2014-08-26 | At&T Intellectual Property I, L.P. | System and method for playing media |
JP5340296B2 (ja) * | 2009-03-26 | 2013-11-13 | パナソニック株式会社 | 復号化装置、符号化復号化装置および復号化方法 |
KR101387195B1 (ko) * | 2009-10-05 | 2014-04-21 | 하만인터내셔날인더스트리스인코포레이티드 | 오디오 신호의 공간 추출 시스템 |
WO2011117399A1 (fr) | 2010-03-26 | 2011-09-29 | Thomson Licensing | Procédé et dispositif pour le décodage d'une représentation d'un champ sonore audio pour une lecture audio |
JP5672741B2 (ja) * | 2010-03-31 | 2015-02-18 | ソニー株式会社 | 信号処理装置および方法、並びにプログラム |
US20110317522A1 (en) * | 2010-06-28 | 2011-12-29 | Microsoft Corporation | Sound source localization based on reflections and room estimation |
US9313599B2 (en) | 2010-11-19 | 2016-04-12 | Nokia Technologies Oy | Apparatus and method for multi-channel signal playback |
US9055371B2 (en) * | 2010-11-19 | 2015-06-09 | Nokia Technologies Oy | Controllable playback system offering hierarchical playback options |
US9456289B2 (en) | 2010-11-19 | 2016-09-27 | Nokia Technologies Oy | Converting multi-microphone captured signals to shifted signals useful for binaural signal processing and use thereof |
EP2541547A1 (fr) | 2011-06-30 | 2013-01-02 | Thomson Licensing | Procédé et appareil pour modifier les positions relatives d'objets de son contenu dans une représentation ambisonique d'ordre supérieur |
WO2013068402A1 (fr) * | 2011-11-10 | 2013-05-16 | Sonicemotion Ag | Procédé d'implémentations pratiques de reproduction de champs sonores basé sur des intégrales de surface en trois dimensions |
KR101282673B1 (ko) | 2011-12-09 | 2013-07-05 | 현대자동차주식회사 | 음원 위치 추정 방법 |
US8996296B2 (en) * | 2011-12-15 | 2015-03-31 | Qualcomm Incorporated | Navigational soundscaping |
WO2013130191A1 (fr) | 2012-02-29 | 2013-09-06 | Applied Materials, Inc. | Chambre de décapage et d'élimination présentant une configuration de sas de chargement |
EP2645748A1 (fr) | 2012-03-28 | 2013-10-02 | Thomson Licensing | Procédé et appareil de décodage de signaux de haut-parleurs stéréo provenant d'un signal audio ambiophonique d'ordre supérieur |
US10148903B2 (en) | 2012-04-05 | 2018-12-04 | Nokia Technologies Oy | Flexible spatial audio capture apparatus |
US9288603B2 (en) | 2012-07-15 | 2016-03-15 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for backward-compatible audio coding |
EP2688066A1 (fr) | 2012-07-16 | 2014-01-22 | Thomson Licensing | Procédé et appareil de codage de signaux audio HOA multicanaux pour la réduction du bruit, et procédé et appareil de décodage de signaux audio HOA multicanaux pour la réduction du bruit |
US9473870B2 (en) | 2012-07-16 | 2016-10-18 | Qualcomm Incorporated | Loudspeaker position compensation with 3D-audio hierarchical coding |
US9479886B2 (en) | 2012-07-20 | 2016-10-25 | Qualcomm Incorporated | Scalable downmix design with feedback for object-based surround codec |
US9761229B2 (en) * | 2012-07-20 | 2017-09-12 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for audio object clustering |
CN104604256B (zh) | 2012-08-31 | 2017-09-15 | 杜比实验室特许公司 | 基于对象的音频的反射声渲染 |
US9838824B2 (en) | 2012-12-27 | 2017-12-05 | Avaya Inc. | Social media processing with three-dimensional audio |
US10203839B2 (en) * | 2012-12-27 | 2019-02-12 | Avaya Inc. | Three-dimensional generalized space |
US9301069B2 (en) * | 2012-12-27 | 2016-03-29 | Avaya Inc. | Immersive 3D sound space for searching audio |
US9892743B2 (en) | 2012-12-27 | 2018-02-13 | Avaya Inc. | Security surveillance via three-dimensional audio space presentation |
US9736609B2 (en) * | 2013-02-07 | 2017-08-15 | Qualcomm Incorporated | Determining renderers for spherical harmonic coefficients |
US9685163B2 (en) * | 2013-03-01 | 2017-06-20 | Qualcomm Incorporated | Transforming spherical harmonic coefficients |
US10635383B2 (en) | 2013-04-04 | 2020-04-28 | Nokia Technologies Oy | Visual audio processing apparatus |
US9706324B2 (en) | 2013-05-17 | 2017-07-11 | Nokia Technologies Oy | Spatial object oriented audio apparatus |
US20140355769A1 (en) | 2013-05-29 | 2014-12-04 | Qualcomm Incorporated | Energy preservation for decomposed representations of a sound field |
US9420393B2 (en) | 2013-05-29 | 2016-08-16 | Qualcomm Incorporated | Binaural rendering of spherical harmonic coefficients |
EP2824661A1 (fr) | 2013-07-11 | 2015-01-14 | Thomson Licensing | Procédé et appareil de génération à partir d'une représentation dans le domaine des coefficients de signaux HOA et représentation dans un domaine mixte spatial/coefficient de ces signaux HOA |
DE102013013378A1 (de) * | 2013-08-10 | 2015-02-12 | Advanced Acoustic Sf Gmbh | Aufteilung virtueller Schallquellen |
US9807538B2 (en) | 2013-10-07 | 2017-10-31 | Dolby Laboratories Licensing Corporation | Spatial audio processing system and method |
EP2866475A1 (fr) * | 2013-10-23 | 2015-04-29 | Thomson Licensing | Procédé et appareil pour décoder une représentation du champ acoustique audio pour lecture audio utilisant des configurations 2D |
US9922656B2 (en) | 2014-01-30 | 2018-03-20 | Qualcomm Incorporated | Transitioning of ambient higher-order ambisonic coefficients |
EP2930958A1 (fr) * | 2014-04-07 | 2015-10-14 | Harman Becker Automotive Systems GmbH | Génération d'un champ d'ondes sonores |
US10770087B2 (en) | 2014-05-16 | 2020-09-08 | Qualcomm Incorporated | Selecting codebooks for coding vectors decomposed from higher-order ambisonic audio signals |
JP6388551B2 (ja) * | 2015-02-27 | 2018-09-12 | アルパイン株式会社 | 複数領域音場再現システムおよび方法 |
DE102015008000A1 (de) * | 2015-06-24 | 2016-12-29 | Saalakustik.De Gmbh | Verfahren zur Schallwiedergabe in Reflexionsumgebungen, insbesondere in Hörräumen |
BR112018013526A2 (pt) * | 2016-01-08 | 2018-12-04 | Sony Corporation | aparelho e método para processamento de áudio, e, programa |
CA3032603A1 (fr) * | 2016-08-01 | 2018-02-08 | Magic Leap, Inc. | Systeme de realite mixte a audio spatialise |
US11032663B2 (en) * | 2016-09-29 | 2021-06-08 | The Trustees Of Princeton University | System and method for virtual navigation of sound fields through interpolation of signals from an array of microphone assemblies |
EP3497944A1 (fr) * | 2016-10-31 | 2019-06-19 | Google LLC | Codage audio par projection |
FR3060830A1 (fr) * | 2016-12-21 | 2018-06-22 | Orange | Traitement en sous-bandes d'un contenu ambisonique reel pour un decodage perfectionne |
US10405126B2 (en) * | 2017-06-30 | 2019-09-03 | Qualcomm Incorporated | Mixed-order ambisonics (MOA) audio data for computer-mediated reality systems |
US10182303B1 (en) * | 2017-07-12 | 2019-01-15 | Google Llc | Ambisonics sound field navigation using directional decomposition and path distance estimation |
US10764684B1 (en) | 2017-09-29 | 2020-09-01 | Katherine A. Franco | Binaural audio using an arbitrarily shaped microphone array |
EP3525482B1 (fr) | 2018-02-09 | 2023-07-12 | Dolby Laboratories Licensing Corporation | Reseau de microphones pour l'acquisition d' un champ sonore |
CA3092756A1 (fr) * | 2018-03-02 | 2019-09-06 | Wilfred Edwin Booij | Systeme et procede d'emetteur et de recepteur de positionnement acoustique |
WO2019217808A1 (fr) * | 2018-05-11 | 2019-11-14 | Dts, Inc. | Détermination d'emplacements sonores dans un audio multicanal |
CN110740416B (zh) * | 2019-09-27 | 2021-04-06 | 广州励丰文化科技股份有限公司 | 一种音频信号处理方法及装置 |
CN110740404B (zh) * | 2019-09-27 | 2020-12-25 | 广州励丰文化科技股份有限公司 | 一种音频相关性的处理方法及音频处理装置 |
WO2021138517A1 (fr) | 2019-12-30 | 2021-07-08 | Comhear Inc. | Procédé pour fournir un champ sonore spatialisé |
US11743670B2 (en) | 2020-12-18 | 2023-08-29 | Qualcomm Incorporated | Correlation-based rendering with multiple distributed streams accounting for an occlusion for six degree of freedom applications |
CN113791385A (zh) * | 2021-09-15 | 2021-12-14 | 张维翔 | 一种三维定位方法及系统 |
US20240236609A1 (en) * | 2023-01-05 | 2024-07-11 | Audio Impressions, Inc. | Method of using iir filters for the purpose of allowing one audio sound to adopt the same spectral characteristic of another audio sound |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4219696A (en) * | 1977-02-18 | 1980-08-26 | Matsushita Electric Industrial Co., Ltd. | Sound image localization control system |
US4731848A (en) * | 1984-10-22 | 1988-03-15 | Northwestern University | Spatial reverberator |
US5452360A (en) * | 1990-03-02 | 1995-09-19 | Yamaha Corporation | Sound field control device and method for controlling a sound field |
US5771294A (en) * | 1993-09-24 | 1998-06-23 | Yamaha Corporation | Acoustic image localization apparatus for distributing tone color groups throughout sound field |
US6154553A (en) * | 1993-12-14 | 2000-11-28 | Taylor Group Of Companies, Inc. | Sound bubble structures for sound reproducing arrays |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9726338D0 (en) * | 1997-12-13 | 1998-02-11 | Central Research Lab Ltd | A method of processing an audio signal |
US7231054B1 (en) * | 1999-09-24 | 2007-06-12 | Creative Technology Ltd | Method and apparatus for three-dimensional audio display |
US7340062B2 (en) * | 2000-03-14 | 2008-03-04 | Revit Lawrence J | Sound reproduction method and apparatus for assessing real-world performance of hearing and hearing aids |
CA2406926A1 (fr) * | 2000-04-19 | 2001-11-01 | Sonic Solutions | Prise de son ambiant multi-canal et techniques de reproduction qui preservent les harmoniques spatiales en trois dimensions |
-
2002
- 2002-11-19 FR FR0214444A patent/FR2847376B1/fr not_active Expired - Fee Related
-
2003
- 2003-11-13 BR BRPI0316718-6A patent/BRPI0316718B1/pt not_active IP Right Cessation
- 2003-11-13 CN CN2003801086029A patent/CN1735922B/zh not_active Expired - Lifetime
- 2003-11-13 EP EP03782553A patent/EP1563485B1/fr not_active Expired - Lifetime
- 2003-11-13 KR KR1020057009105A patent/KR100964353B1/ko active IP Right Grant
- 2003-11-13 WO PCT/FR2003/003367 patent/WO2004049299A1/fr active IP Right Grant
- 2003-11-13 AU AU2003290190A patent/AU2003290190A1/en not_active Abandoned
- 2003-11-13 US US10/535,524 patent/US7706543B2/en active Active
- 2003-11-13 DE DE60304358T patent/DE60304358T2/de not_active Expired - Lifetime
- 2003-11-13 AT AT03782553T patent/ATE322065T1/de not_active IP Right Cessation
- 2003-11-13 ES ES03782553T patent/ES2261994T3/es not_active Expired - Lifetime
- 2003-11-13 JP JP2004554598A patent/JP4343845B2/ja not_active Expired - Lifetime
-
2005
- 2005-05-17 ZA ZA200503969A patent/ZA200503969B/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4219696A (en) * | 1977-02-18 | 1980-08-26 | Matsushita Electric Industrial Co., Ltd. | Sound image localization control system |
US4731848A (en) * | 1984-10-22 | 1988-03-15 | Northwestern University | Spatial reverberator |
US5452360A (en) * | 1990-03-02 | 1995-09-19 | Yamaha Corporation | Sound field control device and method for controlling a sound field |
US5771294A (en) * | 1993-09-24 | 1998-06-23 | Yamaha Corporation | Acoustic image localization apparatus for distributing tone color groups throughout sound field |
US6154553A (en) * | 1993-12-14 | 2000-11-28 | Taylor Group Of Companies, Inc. | Sound bubble structures for sound reproducing arrays |
Non-Patent Citations (1)
Title |
---|
CHEN J ET AL: "SYNTHESIS OF 3D VIRTUAL AUDITORY SPACE VIA A SPATIAL FEATURE EXTRACTION AND REGULARIZATION MODEL", PROCEEDINGS OF THE VIRTUAL REALITY ANNUAL INTERNATIONAL SYMPOSIUM. SEATTLE, SEPT. 18 - 22, 1993, NEW YORK, IEEE, US, vol. SYMP. 1, 18 September 1993 (1993-09-18), pages 188 - 193, XP000457687 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2094032A1 (fr) * | 2008-02-19 | 2009-08-26 | Deutsche Thomson OHG | Signal audio, procédé et appareil pour coder ou transmettre celui-ci et procédé et appareil pour le traiter |
EP2205007A1 (fr) * | 2008-12-30 | 2010-07-07 | Fundació Barcelona Media Universitat Pompeu Fabra | Procédé et appareil pour le codage tridimensionnel de champ acoustique et la reconstruction optimale |
WO2010076040A1 (fr) * | 2008-12-30 | 2010-07-08 | Fundacio Barcelona Media Universitat Pompeu Fabra | Procédé et appareil de codage et de reconstruction optimale de champ acoustique tridimensionnel |
RU2533437C2 (ru) * | 2008-12-30 | 2014-11-20 | Долби Интернэшнл Аб | Способ и устройство для кодирования и оптимальной реконструкции трехмерного акустического поля |
WO2010089357A3 (fr) * | 2009-02-04 | 2010-11-11 | Richard Furse | Système sonore |
US9078076B2 (en) | 2009-02-04 | 2015-07-07 | Richard Furse | Sound system |
US9773506B2 (en) | 2009-02-04 | 2017-09-26 | Blue Ripple Sound Limited | Sound system |
US10490200B2 (en) | 2009-02-04 | 2019-11-26 | Richard Furse | Sound system |
US10582329B2 (en) | 2016-01-08 | 2020-03-03 | Sony Corporation | Audio processing device and method |
US10595148B2 (en) | 2016-01-08 | 2020-03-17 | Sony Corporation | Sound processing apparatus and method, and program |
CN111537058A (zh) * | 2020-04-16 | 2020-08-14 | 哈尔滨工程大学 | 一种基于Helmholtz方程最小二乘法的声场分离方法 |
Also Published As
Publication number | Publication date |
---|---|
ES2261994T3 (es) | 2006-11-16 |
CN1735922A (zh) | 2006-02-15 |
CN1735922B (zh) | 2010-05-12 |
FR2847376B1 (fr) | 2005-02-04 |
ZA200503969B (en) | 2006-09-27 |
EP1563485A1 (fr) | 2005-08-17 |
EP1563485B1 (fr) | 2006-03-29 |
BR0316718A (pt) | 2005-10-18 |
ATE322065T1 (de) | 2006-04-15 |
DE60304358D1 (de) | 2006-05-18 |
AU2003290190A1 (en) | 2004-06-18 |
US7706543B2 (en) | 2010-04-27 |
KR100964353B1 (ko) | 2010-06-17 |
US20060045275A1 (en) | 2006-03-02 |
WO2004049299A1 (fr) | 2004-06-10 |
KR20050083928A (ko) | 2005-08-26 |
DE60304358T2 (de) | 2006-12-07 |
JP2006506918A (ja) | 2006-02-23 |
JP4343845B2 (ja) | 2009-10-14 |
BRPI0316718B1 (pt) | 2021-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1563485B1 (fr) | Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede | |
EP1600042B1 (fr) | Procede de traitement de donnees sonores compressees, pour spatialisation | |
EP1992198B1 (fr) | Optimisation d'une spatialisation sonore binaurale a partir d'un encodage multicanal | |
EP1586220B1 (fr) | Procede et dispositif de pilotage d'un ensemble de restitution a partir d'un signal multicanal | |
WO2006075077A2 (fr) | Procede et dispositif d’individualisation de hrtfs par modelisation | |
EP3475943B1 (fr) | Procede de conversion et d'encodage stereophonique d'un signal audio tridimensionnel | |
JP5611970B2 (ja) | オーディオ信号を変換するためのコンバータ及び方法 | |
WO2003073791A2 (fr) | Procédé et dispositif de pilotage d'un ensemble de restitution d'un champ acoustique | |
EP3400599B1 (fr) | Encodeur ambisonique ameliore d'une source sonore a pluralite de reflexions | |
GB2605970A (en) | Content based spatial remixing | |
EP3025514B1 (fr) | Spatialisation sonore avec effet de salle | |
FR3065137A1 (fr) | Procede de spatialisation sonore | |
EP3058564B1 (fr) | Spatialisation sonore avec effet de salle, optimisee en complexite | |
WO2005096268A2 (fr) | Procede de traitement de donnees sonores, en particulier en contexte ambiophonique | |
US11432092B2 (en) | Method and system for processing an audio signal including ambisonic encoding | |
Paulo et al. | Perceptual Comparative Tests Between the Multichannel 3D Capturing Systems Artificial Ears and the Ambisonic Concept | |
EP3449643B1 (fr) | Procédé et système de diffusion d'un signal audio à 360° | |
FR3040253B1 (fr) | Procede de mesure de filtres phrtf d'un auditeur, cabine pour la mise en oeuvre du procede, et procedes permettant d'aboutir a la restitution d'une bande sonore multicanal personnalisee |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |
Effective date: 20060731 |