CA2197166C - Systeme de spatialisation sonore, et procede de personnalisation pour sa mise en oeuvre - Google Patents

Systeme de spatialisation sonore, et procede de personnalisation pour sa mise en oeuvre Download PDF

Info

Publication number
CA2197166C
CA2197166C CA002197166A CA2197166A CA2197166C CA 2197166 C CA2197166 C CA 2197166C CA 002197166 A CA002197166 A CA 002197166A CA 2197166 A CA2197166 A CA 2197166A CA 2197166 C CA2197166 C CA 2197166C
Authority
CA
Canada
Prior art keywords
sound
head
subject
microphones
functions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CA002197166A
Other languages
English (en)
Other versions
CA2197166A1 (fr
Inventor
Maite Courneau
Christian Gulli
Gerard Reynaud
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales Avionics SAS
Original Assignee
Thales Avionics SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales Avionics SAS filed Critical Thales Avionics SAS
Publication of CA2197166A1 publication Critical patent/CA2197166A1/fr
Application granted granted Critical
Publication of CA2197166C publication Critical patent/CA2197166C/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S3/004For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

Le système de spatialisation sonore de l'invention comporte, pour chaque canal monophonique à spatialiser, un processeur binaural (8) à deux voies de filtres de convolution combinés linéairement dans chaque voie, ce(s ) processeur(s) étant relié(s) à un dispositif orienteur (13) de calcul de localisation spatiale des sources sonores, lui-même relié à au moins un dispositif de localisation (3, 4, 12). La convolution est effectuée entre le signal monophonique et les fonctions de transfert "oreille gauche" et "oreille droite" de l'utilisateur, ces fonctions de transfert étant propres à cet utilisateur , ce qui améliore ses performances de localisation de la source sonore monophonique.

Description

Système de spatialisation sonore, et procédé de personnalisation pour sa mise en oeuvre La présente invention se rapporte à un système de spatialisation s sonore, ainsi qu'à un procédé de personnalisation permettant de mettre en oeuvre la spatialisation sonore.
Un pilote d'avion, en particulier d'avion de chasse, porte un casque stéréophonique qui lui restitue non seulement les communications radiophoniques, mais également des alarmes diverses et des ~o communications de bord. Les radiocommunications peuvent se contenter d'une restitution stéréophonique, ou méme monophonique, tandis que les alarmes et les communications de bord ne peuvent être localisées par rapport au pilote (ou au copilote...).
La présente invention a pour objet un système de communication ~s audiophonique, qui permette de discriminer facilement la localisation d'une source sonore déterminée, en particulier dans le cas de l'existence de plusieurs sources sonores à proximité de l'utilisateur.
Le système de spatialisation sonore conforme à l'invention comporte, pour chaque canal monophonique à spatialiser, un processeur 2o binaural à deux voies de filtres de convolution combinés linéairement dans chaque voie, ce (s) processeur (s) étant relié (s) à un dispositif orienteur de calcul de localisation spatiale des sources sonores, lui-même relié à des dispositifs de localisation, caractérisé en ce qu'il comporte pour au moins une partie des voies un dispositif d'illustration sonore complémentaire relié
25 au processeur binaural correspondant, ce dispositif d'illustration sonore complémentaire comprenant au moins l'un des circuits suivants : circuit d'ëlargissement de bande passante, circuit de production de bruit de fond, circuit de simulation du comportement acoustique d'une salle, circuit de simulation d'effet Doppler, circuit produisant différents symboles sonores so correspondant chacun à une source ou à une alarme déterminée.
Le procédé de personnalisation conforme à l'invention consiste à
estimer les fonctions de transfert de tête de l'utilisateur par mesure de ces fonctions en un nombre fini de points de l'espace l'environnant, puis par interpolation des valeurs ainsi mesurées à calculer les fonctions de transfert 35 de tête, pour chacune des deux oreilles de l'utilisateur, au point de l'espace où se trouve la source sonore, et à créer le signal "spatialisé" à partir du
2 signal monophonique à traiter en le convoluant avec chacune des deux fonctions de transfert ainsi estimées. On peut ainsi "personnaliser" les filtres de convolution pour chaque utilisateur du système mettant en oeuvre ce procédé. Chaque utilisateur pourra alors localiser de la meilleure façon possible la source sonore virtuelle restituée par son équipement audiophonique.
La présente invention sera mieux comprise à la lecture de la description détaillée d'un mode de réalisation, pris à titre d'exemple non limitatif et illustré par le dessin annexé sur lequel - la figure 1 est un bloc-diagramme d'un système de spatialisation sonore conforme à l'invention, - la figure 2 est un schéma explicatif de l'interpolation spatiale réalisée suivant le procédé de l'invention - la figure 3 est un bloc-diagramme fonctionnel des principaux circuits de spatialisation de l'invention, et - la figure 4 est une vue simplifiée de l'appareillage de recueil des fonctions de transfert de tëte conformément au procédé de l'invention.
L'invention est décrite ci-dessous en référence à un système audiophonique d'avion, en particulier d'avion de combat, mais il est bien 2o entendu qu'elle n'est pas limitée à une telle application, et qu'elle peut être mise en oeuvre aussi bien dans d'autres types de véhicules (terrestres ou maritimes) que dans des installations fixes. L'utilisateur de ce système est, dans le cas présent, le pilote d'un avion de combat, mais il est bien entendu qu'il peut y avoir simultanément plusieurs utilisateurs, en particulier s'il s'agit d'un avion de transport civil, des dispositifs particuliers à chaque utilisateur étant prévus en nombre correspondant.
Le module 1 de spatialisation représenté sur la figure 1 a pour rôle de faire entendre des signaux sonores (tonalités, parole, alarmes, ...) à
l'aide d'un casque stéréophonique de telle sorte qu'ils soient perçus par so l'auditeur comme s'ils provenaient d'un point particulier de l'espace, ce point pouvant être la position effective de la source sonore ou bien une position arbitraire. Ainsi, par exemple, le pilote d'un avion de combat entend la voix de son copilote comme si elle provenait effectivement de derrière lui, ou bien une alerte sonore d'attaque de missile est positionnée spatialement au point d'arrivée de la menace. En outre, la position de la source sonore évolue en 21971~~
3 fonction des mouvements de la tëte du pilote et des mouvements de l'avion par exemple une alarme générée à l'azimut "3 heures" doit se retrouver à
"midi" si le pilote tourne la tête de 90 degrés vers la droite.
Le module 1 est par exemple relié à un bus numérique 2 duquel il reçoit des informations fournies par : un détecteur de position de tëte 3, une centrale inertielle 4 et/ou un dispositif de localisation tel qu'un goniomètre, un radar, ..., des dispositifs de contre-mesures 5 (détection des menaces extérieures telles que des missiles) et un dispositif de gestion d'alarmes 6 (signalant en particulier des pannes d'instruments ou d'équipements de l'avion).
Le module 1 comporte un interpolateur 7 dont l'entrée est reliée au bus 2 auquel sont reliées différentes sources sonores (microphones, alarmes, ...). En général, ces sources sont échantillonnées à des fréquences relativement faibles (6, 12 ou 24 kHz par exemple). L'interpolateur 7 permet ~5 d'élever ces fréquences à un commun multiple, par exemple 48 kHz dans le cas présent, fréquence nécessaire aux processeurs situés en aval. Cet interpolateur 7 est relié à n processeurs binauraux, référencés 8 dans leur ensemble, n étant le nombre maximal de voies à spatialiser simultanément.
Les sorties des processeurs 8 sont reliées à un additionneur 9 dont la sortie 2o constitue la sortie du module 1. Le module 1 comporte également dans la liaison entre au moins une sortie de l'interpolateur 7 et l'entrée du processeur correspondant de l'ensemble 8 un additionneur 10 dont l'autre entrée est reliée à la sortie d'un dispositif 11 d'illustration sonore complémentaire.
25 Ce dispositif 11 produit un signal sonore couvrant en particulier les fréquences élevées (par exemple de 5 à 16 kHz) du spectre audio. II
complète ainsi la bande passante utile du canal de transmission auquel son signal de sortie est ajouté. Ce canal de transmission peut être avantageusement un canal radio, mais il est bien entendu que tout autre 3o canal peut être ainsi complété, et que plusieurs canaux peuvent être complétés dans un même système, en prévoyant un nombre correspondant d'additionneurs tels que 10. En effet, les radiocommunications utilisent des bandes passantes réduites (3 à 4 kHz en général). Une telle largeur de bande est insuffisante pour une spatialisation correcte du signal sonore. Des 35 tests ont montré que les fréquences élevées (supérieures à 14 kHz environ), 219'166
4 situées au-delà de la limite du spectre vocal, permettent une meilleure localisation de la provenance du son. Le dispositif 11 est alors un dispositif d'élargissement de bande passante. Le signal sonore complémentaire peut par exemple être un bruit de fond caractéristique d'une liaison radio. Le s dispositif 11 peut ëtre également, par exemple, un dispositif simulant le comportement acoustique d'une salle, d'un édifice..., ou un dispositif simulant un effet Doppler, ou bien encore un dispositif produisant différents symboles sonores correspondant chacun à une source ou à une alarme déterminée.
Les processeurs 8 génèrent chacun, un signal de type stéréophonique à partir du signal monophonique provenant de l'interpolateur 7 auquel est additionné le cas échéant, le signal du dispositif 11, en tenant compte des données fournies par le détecteur 3 de position de la tête du pilote.
15 Le module 1 comporte également un dispositif 12 de gestion des sources à spatialiser suivi d'un orienteur 13 à n entrées (n étant défini ci-dessus) commandant les n différents processeurs de l'ensemble 8. Le dispositif 13 est un calculateur calculant, à partir des données fournies par le détecteur de position de la tëte du pilote, l'orientation de l'avion par 2o rapport au repère terrestre (fourni par la centrale inertielle de l'avion) et la localisation de la source, les coordonnées dans l'espace du point d'où
doivent sembler provenir les sons émis par cette source.
Si l'on veut spatialiser simultanément, en n2 points distincts de l'espace (avec n2_<n) n2 sources distinctes, on utilise avantageusement, en 25 tant que dispositif 13, un orienteur à n2 entrées calculant séquentiellement les coordonnées de chaque source à spatialiser. Du fait que le nombre de sources sonores que peut distinguer un observateur moyen est généralement de quatre, n2 est avantageusement égal à quatre au maximum.
3o A la sortie de l'additionneur 9, on obtient une seule voie à deux canaux (gauche et droit) qui est transmise via le bus 2 à des circuits d'écoute audio 14.
Le dispositif 12 de gestion des n sources à spatialiser est un calculateur qui reçoit, via le bus 2, des informations concernant les 35 caractéristiques des sources à spatialiser (site, gisement et distance par
5 rapport au pilote), des critères de personnalisation au choix de l'utilisateur et des informations de priorité (menaces, alarmes, communications radio importantes, ...). Le dispositif 12 reçoit du dispositif 4 des informations concernant l'évolution de la localisation de certaines sources (ou de toutes les sources, le cas échéant). A partir de ces informations, le dispositif 12 sélectionne la source (ou au maximum les n2 sources) à spatialiser.
De façon avantageuse, on utilise un lecteur 15 de carte à
mémoire 16 pour le dispositif 1 afin de personnaliser la gestion des sources sonores par le dispositif 12. Le lecteur 15 est relié au bus 2. La carte 16 1o contient alors les caractéristiques du filtrage réalisé par les pavillons des oreilles de chaque utilisateur. Dans le mode de réalisation préféré, il s'agit d'un ensemble de couples de filtres numériques (c'est-à-dire des coefficients représentant leurs réponses impulsionnelles) correspondant aux filtrages acoustiques "oreille gauche" et "oreille droite" réalisés pour divers points de ~5 l'espace environnant l'utilisateur. La base de données ainsi constituée est chargée, via le bus 2, dans la mémoire associée aux différents processeurs 8.
Les processeurs 8 comportent chacun essentiellement deux voies (dites "oreille gauche" et "oreille droite") de filtrage par convolution. Plus 2o précisément, le rdle de chacun des processeurs 8 est d'une part de calculer par interpolation les fonctions de transfert de tëte (droite et gauche) au point en lequel sera placée la source, d'autre part de créer le signal spatialisé
sur deux canaux à partir du signal monophonique original.
Le recueil des fonctions de transfert de tête impose un 25 échantillonnage spatial : ces fonctions de transfert ne sont mesurées qu'en un nombre fini de points (de l'ordre de 100). Or pour "spatialiser"
correctement un son, il faudrait connaître les fonctions de transfert au point origine de la source, déterminé par l'orienteur 13. II faut donc se contenter d'une estimation de ces fonctions : cette opération est réalisée par une 3o interpolation "barycentrique" des quatre couples de fonctions associées aux quatre points de mesure les plus proches du point de l'espace calculé.
Ainsi, comme représenté schématiquement en figure 2, on effectue des mesures en différents points de l'espace régulièrement espacés en site et en gisement et situés sur une même sphère. On a représenté en 35 figure 2 une partie de la "grille" G ainsi obtenue pour les points Pm, Pm+1, s Pm+2, ... Pp, Pp+1, .... Soit un point P de ladite sphère, déterminé par l'orienteur 13 comme étant situé dans la direction de la source sonore à
"spatialiser". Ce point P est à l'intérieur du quadrilatère curviligne délimité
par les points Pm+1, Pm+2, Pn+1, Pn+2. On effectue donc l'interpolation barycentrique pour la position de P par rapport à ces quatre points. Les différents équipements déterminant l'orientation de la source sonore et l'orientation et l'emplacement de la tête de l'utilisateur fournissent leurs données respectives toutes les 20 ou 40 ms (~T), c'est-à-dire que tous les 0 T un couple de fonctions de transfert est disponible. Afin d'éviter des "sauts"
audibles lors de la restitution (lorsque l'opérateur modifie l'orientation de sa tête, il doit percevoir un son sans coupure), le signal à spatialiser est en fait convolué par une paire de filtres obtenue par interpolation "temporelle"
réalisée entre les filtres de convolution interpolés spatialement aux instants T et T+OT. II ne reste alors qu'à convertir les signaux numériques ainsi obtenus en analogique avant leur restitution dans les écouteurs de l'utilisateur.
Sur le diagramme de la figure 3, qui se rapporte à une voie à
spatialiser, on a représenté les différents capteurs d'attitude (de position) mis en oeuvre. Ce sont : un capteur 17 d'attitude de tête, un capteur 18 2o d'attitude de la source sonore, et un capteur 19 d'attitude du mobile porteur (avion par exemple). Les informations de ces capteurs sont fournies à
l'orienteur 13, qui détermine à partir de ces informations la position spatiale de la source par rapport à la tête de l'utilisateur (en ligne de visée et en distance). L'orienteur 13 est relié à une base de données 20 (incluse dans la carte 16) dont il commande le chargement vers les processeurs 8 des fonctions de transfert "gauche" et "droite" des quatre points les plus proches de la position de la source (voir figure 2), ou éventuellement du point de mesure (si la position de la source coïncide avec celle de l'un des points de mesure de la grille G). Ces fonctions de transfert sont soumises à une 3o interpolation spatiale en 21, puis à une interpolation temporelle en 22, et les valeurs résultantes sont convoluées en 23 avec le signal 24 à spatialiser.
Bien entendu, les fonctions 21 et 23 sont réalisées par le même interpolateur (interpolateur 7 de la figure 1 ), et les convolutions sont réalisées par le processeur binaural 8 correspondant à la voie spatialisée.
Après convolution, on effectue une conversion numérique-analogique, en ._ 25, et la restitution sonore (amplification et envoi à un casque stéréophonique) en 26. Bien entendu, les opérations 20 à 23 et 25, 26 se font séparément pour la voie gauche et pour la voie droite.
Les filtres de convolution "personnalisés" constituant la base de données précédemment évoquée sont établis à partir de mesures faisant appel à un procédé décrit ci-dessous en référence à la figure 4.
Dans une chambre anéchoïque, est installé un outillage mécanique automatisé 27 se composant d'un rail semi-circulaire 28 monté
sur un pivot motorisé 29 fixé au sol de cette chambre. Le rail 28 est disposé
~o verticalement, de façon que ses extrémités soient sur la même perpendiculaire. Sur ce rail 28, se déplace un support 30 sur lequel est monté un haut-parleur large bande 31. Ce dispositif permet de placer le haut-parleur en n'importe quel point de la sphère définie par le rail lorsque celui-ci effectue une rotation de 360 degrés autour d'un axe vertical passant ~s par le pivot 29. La précision du positionnement du haut-parleur est d'un degré en site et en gisement, par exemple.
Une première série de relevés est effectuée : le haut-parleur 31 est placé successivement en X points de la sphère, c'est-à-dire que l'espace est "discrétisé" : il s'agit d'un échantillonnage spatial. En chaque point de 2o mesure, un code pseudo-aléatoire est généré et restitué par le haut-parleur 31. Le signal sonore émis est capté par une paire de microphones de référence placée au centre 32 de la sphère (la distance séparant les microphones est de l'ordre de la largeur de la téte du sujet dont on désire recueillir les fonctions de transfert), afin de mesurer la pression acoustique 25 résultante en fonction de la fréquence.
On effectue ensuite une seconde série de relevés : la méthode est la même mais cette fois, le sujet est placé de telle sorte que ses oreilles soient situées à l'emplacement des microphones (le sujet contrôle la position de sa tête par retour vidéo). Le sujet est muni de bouchons d'oreille 30 obturateurs individualisés dans lesquels sont placés des microphones miniatures. L'obturation complète du conduit présente les avantages suivants : l'oreille est acoustiquement protégée, et le réflexe stapédien (inexistant dans ce cas) ne vient pas modifier l'impédance acoustique de l'ensemble.

Pour chaque position du haut-parleur, pour chaque oreille, après compensation des réponses des microphones miniatures et du haut-parleur, on effectue le rapport des pressions acoustiques en fonction de la fréquence, mesurées dans les deux expériences précédentes. On obtient ainsi X couples (oreille gauche, oreille droite) de fonctions de transfert.
Selon la technique de convolution utilisée, la base de données des fonctions de transfert peut être constituée soit de couples de réponses en fréquence (convolution par multiplication dans le domaine fréquentiel) soit de couples de réponses impulsionnelles (convolution temporelle classique), transformées de Fourier inverses des précédentes.
L'utilisation d'un signal obtenu par génération d'un code binaire pseudo-aléatoire permet de disposer d'une réponse impulsionnelle de grande dynamique avec un niveau sonore émis moyen (70 dBa par exemple).
L'emploi des sources acoustiques émettant des signaux binaires pseudo-aléatoires tend à se généraliser dans la technique de mesure de réponse impulsionnelle, surtout en ce qui concerne la caractérisation d'un local acoustique par la méthode de corrélation.
Outre leurs caractéristiques (fonction d'autocorrélation) et leurs 2o propriétés particulières qui se prêtent à des optimisations (transformée d'Hadamard), ces signaux rendent acceptable l'hypothèse de linéarité du système acoustique de recueil. Ils permettent également de s'affranchir des variations d'impédance acoustique de la chaine ossiculaire par réflexe stapédien, en limitant le niveau d'émission (70 dBa). De préférence, on 2s produit des signaux binaires pseudo-aléatoires à séquence de longueur maximale. L'avantage des séquences à longueur maximale réside dans leurs caractéristiques spectrales (bruit blanc) et leur mode de génération qui permet une optimisation du processeur de traitement.
Les principes de mesure à l'aide de signaux binaires pseudo 3o aléatoires mis en oeuvre par la présente invention sont par exemple décrits dans les ouvrages suivants - J.K.Holmes : "Coherent spread spectrum systems". Wiky Interscience 219?16~

- J. Borish and J.B. Angell : "An efficient algorithm for measuring the impulse response using pseudorandom noise" J. Audio Eng. Soc., Vol.
31, n° 7, July/August 1983.
- L. Otshudi, J.P. Quilhot : "Considérations sur les propriétés énergétiques des signaux binaires pseudo-aléatoires et sur leur utilisation comme excitateurs acoustiques". Acustica Vol. 90, pp 76-81, 1990.
Ils ne sont donc rappelés que brièvement ici.
A partir de la génération des séquences pseudo-aléatoires, on réalise les fonctions principales suivantes - génération d'un signal de référence et enregistrement concomitant des deux voies microphoniques, - calcul de la réponse impulsionnelle du trajet acoustique, (diffraction) - calcul de certains critères (gain de chaque voie, ordre du ~ 5 moyennage, niveau numérique de sortie, indicateur de stockage, mesure du retard binaural des 2 voies par corrélation, décalage pour simuler les retards géométriques, ...) - visualisation des résultats, échogrammes, courbe de décroissance, sortie sur imprimante.
2o La réponse impulsionnelle est obtenue sur la durée (2n-1 )Ife où N
est l'ordre de la séquence et où fe est la fréquence d'échantillonnage. II
revient à l'expérimentateur de choisir un couple de valeurs (ordre de la séquence, fe) suffisant afin d'avoir toute la décroissance utile de la réponse.
Le dispositif de spatialisation sonore décrit ci-dessus permet 25 d'augmenter l'intelligibilité des sources sonores qu'il traite, de diminuer le temps de réaction de l'opérateur vis-à-vis des signaux d'alarmes, d'alertes ou d'autres indicateurs sonores, dont les sources semblent être situées respectivement en différents ponts de l'espace, donc plus faciles à
discriminer entre elles et plus faciles à classer par ordre d'importance ou 3o d'urgence.

Claims (9)

REVENDICATIONS
1. Procédé de personnalisation d'un système de spatialisation sonore par estimation de fonctions de transfert de tête d'un sujet, caractérisé
par le fait que lesdites fonctions sont mesurées en un nombre fini de points d'un espace environnant ledit sujet, en deux séries de relevés, une première consistant à effectuer un échantillonnage spatial en plaçant une source sonore en différents points d'une sphère au centre de laquelle une paire de microphones est disposée, dont une distance mutuelle est de l'ordre d'une largeur de la tête du sujet dont on désire recueillir les fonctions de transfert de tête, une seconde série de relevés étant effectuée avec le sujet placé de telle sorte que ses oreilles sont situées à un emplacement des microphones, le sujet étant muni de bouchons d'oreilles obturateurs individualisés dans lesquels sont placés des microphones miniatures, puis par interpolation de valeurs ainsi mesurées à calculer les fonctions de transfert de tête, pour chacune des deux oreilles du sujet, au point de l'espace où se trouve la source sonore, et à créer un signal spatialisè à partir d'un signal monophonique à traiter en le convoluant avec chacune des deux fonctions de transfert ainsi estimées.
2. Le procédé selon la revendication 1, caractérisé en ce que l'interpolation comporte une phase d'interpolation spatiale et une phase d'interpolation temporelle.
3. Le procédé selon l'une quelconque des revendications 1 et 2, caractérisé en ce que la source sonore émet un signal binaire pseudo-aléatoire.
4. Le procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce que les fonctions de transfert de tête sont estimées en environ 100 points.
5. Système de personnalisation d'un système de spatialisation de sources sonores produisant chacune des canaux monophoniques, comportant, pour chaque canal monophonique à spatialiser, un processeur binaural (8) à deux voies de filtres de convolution combinés linéairement dans chaque voie, ledit processeur étant relié à un dispositif orienteur (13) de calcul de localisation spatiale des sources sonores, ledit dispositif orienteur étant relié à au moins un dispositif de localisation (3, 4, 12), ledit système de personnalisation comportant un outillage de mesure de fonction de transfert de tête installé dans une chambre anéchoique comprenant un rail semi-circulaire (28) monté sur un pivot motorisé, sur lequel se déplace un haut-parleur (31) relié à une source sonore, une paire de microphones étant placée au centre (32) d'une sphère décrite par le rail, une distance séparant les microphones étant de l'ordre d'une largeur d'une téte d'un utilisateur du système.
6. Le système selon la revendication 5, caractérisé en ce qu'il comporte pour au moins une partie des voies un dispositif d'illustration sonore complémentaire (11) relié au processeur binaural correspondant, ce dispositif d'illustration sonore complémentaire comprenant au moins l'un des circuits suivants: circuit d'élargissement de bande passante, circuit de production de bruit de fond, circuit de simulation du comportement acoustique d'une salle, circuit de simulation d'effet Doppler et circuit produisant différents symboles sonores correspondant chacun à l'une d'une source et d'une alarme déterminée.
7. Le système selon l'une quelconque des revendications 5 et 6, caractérisé en ce que le dispositif orienteur est l'un au moins des dispositifs suivants: centrale inertielle (4), détecteur de position de tête (3), radar et gonlomètre.
8. Le système selon l'une quelconque des revendications 5 à 7, caractérisé en ce qu'il est relié à un dispositif de contre-mesures (5).
9. Le système selon l'une quelconque des revendications 5 à 8, caractérisé en ce qu'il est relié à un dispositif (15) lecteur de cartes à
mémoire (16) dans chacune desquelles sont mémorisées des données caractéristiques d'un filtrage réalisé par des pavillons des oreilles de l'utilisateur.
CA002197166A 1996-02-13 1997-02-10 Systeme de spatialisation sonore, et procede de personnalisation pour sa mise en oeuvre Expired - Fee Related CA2197166C (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9601740A FR2744871B1 (fr) 1996-02-13 1996-02-13 Systeme de spatialisation sonore, et procede de personnalisation pour sa mise en oeuvre
FR9601740 1996-02-13

Publications (2)

Publication Number Publication Date
CA2197166A1 CA2197166A1 (fr) 1997-08-14
CA2197166C true CA2197166C (fr) 2005-08-16

Family

ID=9489132

Family Applications (1)

Application Number Title Priority Date Filing Date
CA002197166A Expired - Fee Related CA2197166C (fr) 1996-02-13 1997-02-10 Systeme de spatialisation sonore, et procede de personnalisation pour sa mise en oeuvre

Country Status (6)

Country Link
US (1) US5987142A (fr)
EP (1) EP0790753B1 (fr)
JP (1) JPH1042399A (fr)
CA (1) CA2197166C (fr)
DE (1) DE69727328T2 (fr)
FR (1) FR2744871B1 (fr)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2744277B1 (fr) * 1996-01-26 1998-03-06 Sextant Avionique Procede de reconnaissance vocale en ambiance bruitee, et dispositif de mise en oeuvre
FR2765715B1 (fr) 1997-07-04 1999-09-17 Sextant Avionique Procede de recherche d'un modele de bruit dans des signaux sonores bruites
AUPP272898A0 (en) * 1998-03-31 1998-04-23 Lake Dsp Pty Limited Time processed head related transfer functions in a headphone spatialization system
FR2786107B1 (fr) 1998-11-25 2001-02-16 Sextant Avionique Masque inhalateur d'oxygene avec dispositif de prise de son
WO2001055833A1 (fr) * 2000-01-28 2001-08-02 Lake Technology Limited Systeme audio a composante spatiale destine a etre utilise dans un environnement geographique
JP4304845B2 (ja) * 2000-08-03 2009-07-29 ソニー株式会社 音声信号処理方法及び音声信号処理装置
WO2002052895A1 (fr) * 2000-12-22 2002-07-04 Harman Audio Electronic Systems Gmbh Systeme d'auralisation d'un haut-parleur dans un espace d'audition pour n'importe quel type de signaux d'entree
US20030227476A1 (en) * 2001-01-29 2003-12-11 Lawrence Wilcock Distinguishing real-world sounds from audio user interface sounds
GB2372923B (en) * 2001-01-29 2005-05-25 Hewlett Packard Co Audio user interface with selective audio field expansion
GB2374507B (en) * 2001-01-29 2004-12-29 Hewlett Packard Co Audio user interface with audio cursor
GB2374506B (en) * 2001-01-29 2004-11-17 Hewlett Packard Co Audio user interface with cylindrical audio field organisation
GB2374502B (en) * 2001-01-29 2004-12-29 Hewlett Packard Co Distinguishing real-world sounds from audio user interface sounds
GB0127776D0 (en) * 2001-11-20 2002-01-09 Hewlett Packard Co Audio user interface with multiple audio sub-fields
US7346172B1 (en) * 2001-03-28 2008-03-18 The United States Of America As Represented By The United States National Aeronautics And Space Administration Auditory alert systems with enhanced detectability
US7079658B2 (en) * 2001-06-14 2006-07-18 Ati Technologies, Inc. System and method for localization of sounds in three-dimensional space
SE0202159D0 (sv) * 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
US6956955B1 (en) * 2001-08-06 2005-10-18 The United States Of America As Represented By The Secretary Of The Air Force Speech-based auditory distance display
FR2842064B1 (fr) * 2002-07-02 2004-12-03 Thales Sa Systeme de spatialisation de sources sonores a performances ameliorees
CN1714598B (zh) * 2002-11-20 2010-06-09 皇家飞利浦电子股份有限公司 基于音频的数据表示设备和方法
GB0419346D0 (en) 2004-09-01 2004-09-29 Smyth Stephen M F Method and apparatus for improved headphone virtualisation
US7756281B2 (en) * 2006-05-20 2010-07-13 Personics Holdings Inc. Method of modifying audio content
JP4780119B2 (ja) * 2008-02-15 2011-09-28 ソニー株式会社 頭部伝達関数測定方法、頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
JP2009206691A (ja) * 2008-02-27 2009-09-10 Sony Corp 頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
JP2011516830A (ja) * 2008-03-20 2011-05-26 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 聴覚的な表示のための装置及び方法
JP5540581B2 (ja) 2009-06-23 2014-07-02 ソニー株式会社 音声信号処理装置および音声信号処理方法
JP5163685B2 (ja) * 2010-04-08 2013-03-13 ソニー株式会社 頭部伝達関数測定方法、頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
JP5024418B2 (ja) * 2010-04-26 2012-09-12 ソニー株式会社 頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置
JP5533248B2 (ja) 2010-05-20 2014-06-25 ソニー株式会社 音声信号処理装置および音声信号処理方法
JP2012004668A (ja) 2010-06-14 2012-01-05 Sony Corp 頭部伝達関数生成装置、頭部伝達関数生成方法及び音声信号処理装置
US9031256B2 (en) 2010-10-25 2015-05-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for orientation-sensitive recording control
US8855341B2 (en) 2010-10-25 2014-10-07 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for head tracking based on recorded sound signals
US9552840B2 (en) 2010-10-25 2017-01-24 Qualcomm Incorporated Three-dimensional sound capturing and reproducing with multi-microphones
FR2977335A1 (fr) * 2011-06-29 2013-01-04 France Telecom Procede et dispositif de restitution de contenus audios
JP6065370B2 (ja) 2012-02-03 2017-01-25 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US8929573B2 (en) * 2012-09-14 2015-01-06 Bose Corporation Powered headset accessory devices
EP2917760B1 (fr) * 2012-11-09 2018-03-28 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO Commande d'espacement entre véhicules
WO2014171791A1 (fr) 2013-04-19 2014-10-23 한국전자통신연구원 Appareil et procédé de traitement de signal audio multicanal
KR102150955B1 (ko) 2013-04-19 2020-09-02 한국전자통신연구원 다채널 오디오 신호 처리 장치 및 방법
US9319819B2 (en) 2013-07-25 2016-04-19 Etri Binaural rendering method and apparatus for decoding multi channel audio
FR3002205A1 (fr) * 2013-08-14 2014-08-22 Airbus Operations Sas Systeme indicateur d'attitude d'un aeronef par spatialisation sonore tridimensionnelle
US10382880B2 (en) 2014-01-03 2019-08-13 Dolby Laboratories Licensing Corporation Methods and systems for designing and applying numerically optimized binaural room impulse responses
CN105120419B (zh) * 2015-08-27 2017-04-12 武汉大学 一种多声道系统效果增强方法及系统
WO2017135063A1 (fr) * 2016-02-04 2017-08-10 ソニー株式会社 Dispositif de traitement audio, procédé de traitement audio et programme
US9832587B1 (en) 2016-09-08 2017-11-28 Qualcomm Incorporated Assisted near-distance communication using binaural cues
KR102283964B1 (ko) * 2019-12-17 2021-07-30 주식회사 라온에이엔씨 인터콤시스템 통신명료도 향상을 위한 다채널다객체 음원 처리 장치
EP4085660A4 (fr) 2019-12-30 2024-05-22 Comhear Inc. Procédé pour fournir un champ sonore spatialisé
FR3110762B1 (fr) 2020-05-20 2022-06-24 Thales Sa Dispositif de personnalisation d'un signal audio généré automatiquement par au moins un équipement matériel avionique d'un aéronef

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4700389A (en) * 1985-02-15 1987-10-13 Pioneer Electronic Corporation Stereo sound field enlarging circuit
FR2633125A1 (fr) * 1988-06-17 1989-12-22 Sgs Thomson Microelectronics Appareil acoustique avec carte de filtrage vocal
US4959015A (en) * 1988-12-19 1990-09-25 Honeywell, Inc. System and simulator for in-flight threat and countermeasures training
FR2652164A1 (fr) * 1989-09-15 1991-03-22 Thomson Csf Procede de formation de voies pour sonar, notamment pour sonar remorque.
WO1991011080A1 (fr) * 1990-01-19 1991-07-25 Sony Corporation Appareil de reproduction de signaux acoustiques
CA2049295C (fr) * 1990-01-19 1998-06-23 Kiyofumi Inanaga Appareil de lecture de signaux acoustiques
EP1304797A3 (fr) * 1992-07-07 2007-11-28 Dolby Laboratories Licensing Corporation Filtre numérique à haute précision et à haut rendement
FR2700055B1 (fr) * 1992-12-30 1995-01-27 Sextant Avionique Procédé de débruitage vectoriel de la parole et dispositif de mise en Óoeuvre.
US5371799A (en) * 1993-06-01 1994-12-06 Qsound Labs, Inc. Stereo headphone sound source localization system
US5438623A (en) * 1993-10-04 1995-08-01 The United States Of America As Represented By The Administrator Of National Aeronautics And Space Administration Multi-channel spatialization system for audio signals
US5659619A (en) * 1994-05-11 1997-08-19 Aureal Semiconductor, Inc. Three-dimensional virtual audio display employing reduced complexity imaging filters

Also Published As

Publication number Publication date
FR2744871A1 (fr) 1997-08-14
EP0790753A1 (fr) 1997-08-20
US5987142A (en) 1999-11-16
DE69727328T2 (de) 2004-10-21
EP0790753B1 (fr) 2004-01-28
FR2744871B1 (fr) 1998-03-06
DE69727328D1 (de) 2004-03-04
CA2197166A1 (fr) 1997-08-14
JPH1042399A (ja) 1998-02-13

Similar Documents

Publication Publication Date Title
CA2197166C (fr) Systeme de spatialisation sonore, et procede de personnalisation pour sa mise en oeuvre
EP3320692B1 (fr) Appareil de traitement spatial de signaux audio
US10433098B2 (en) Apparatus and method for generating a filtered audio signal realizing elevation rendering
US10334357B2 (en) Machine learning based sound field analysis
EP2898707B1 (fr) Calibration optimisee d&#39;un systeme de restitution sonore multi haut-parleurs
EP1992198B1 (fr) Optimisation d&#39;une spatialisation sonore binaurale a partir d&#39;un encodage multicanal
EP3441966A1 (fr) Système et procédé pour déterminer le contexte audio dans des applications de réalité augmentée
US9237398B1 (en) Motion tracked binaural sound conversion of legacy recordings
CN104756526A (zh) 信号处理装置、信号处理方法、测量方法及测量装置
EP1658755B1 (fr) Systeme de spatialisation de sources sonores
CN103716748A (zh) 音频空间化及环境模拟
EP1502475B1 (fr) Procede et systeme de representation d un champ acoustique
EP3895446B1 (fr) Procede d&#39;interpolation d&#39;un champ sonore, produit programme d&#39;ordinateur et dispositif correspondants.
EP1258168B1 (fr) Procede et dispositif de comparaison de signaux pour le controle de transducteurs et systeme de controle de transducteurs
FR2858403A1 (fr) Systeme et procede de determination d&#39;une representation d&#39;un champ acoustique
JP5867799B2 (ja) 収音再生装置、プログラム及び収音再生方法
FR2764469A1 (fr) Procede et dispositif de traitement optimise d&#39;un signal perturbateur lors d&#39;une prise de son
FR3065137A1 (fr) Procede de spatialisation sonore
FR3112017A1 (fr) Equipement électronique comprenant un simulateur de distorsion
US20240163630A1 (en) Systems and methods for a personalized audio system
US20240137720A1 (en) Generating restored spatial audio signals for occluded microphones
Schroeter et al. Acoustic Signal Processing
Iida et al. Acoustic VR System
CN116320908A (zh) 一种虚拟立体声的生成方法及电子设备
FR3120449A1 (fr) Procédé de détermination d’une direction de propagation d’une source sonore par création de signaux sinusoïdaux à partir des signaux sonores reçus par des microphones.

Legal Events

Date Code Title Description
EEER Examination request
MKLA Lapsed