CA2490501A1 - Systeme de spatialisation de sources sonores - Google Patents
Systeme de spatialisation de sources sonores Download PDFInfo
- Publication number
- CA2490501A1 CA2490501A1 CA002490501A CA2490501A CA2490501A1 CA 2490501 A1 CA2490501 A1 CA 2490501A1 CA 002490501 A CA002490501 A CA 002490501A CA 2490501 A CA2490501 A CA 2490501A CA 2490501 A1 CA2490501 A1 CA 2490501A1
- Authority
- CA
- Canada
- Prior art keywords
- sound
- spatialization
- module
- source
- transfer functions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/007—Two-channel systems in which the audio signals are in digital form
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Stereophonic System (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Holo Graphy (AREA)
- Surface Acoustic Wave Elements And Circuit Networks Thereof (AREA)
Abstract
La présente invention concerne un système de spatialisation de sources sonor es à performances améliorées permettant notamment la réalisation d'un système d e spatialisation compatible avec un équipement modulaire avionique de traiteme nt de l'information de type EMTI. Il comprend: une base de données filtres (13) comprenant un ensemble de fonctions de transfert de tête (HRTF) propres à l'auditeur, un processeur (CPU1) de présentation de données recevant l'information issue de chaque source et comprenant notamment un module de calcul (101) des positions relatives des sources par rapport à l'auditeur et un module (102) de sélection des fonctions de transfert de tête avec une résolution variable adaptée à la position relative de la source avec l'auditeur, une unité de calcul (CPU2) desdits canaux monophoniques par convolution de chaque source sonore avec des fonctions de transfert de tête de ladite base de données estimées à ladite position de la source.
Description
SYSTEME DE SPATIALISATION DE SOURCES SONORES
La présente invention concerne un système de spatialisation de s sources sonores à performances améliorées permettant notamment la réalisation d'un système de spatialisation compatible avec un équipement modulaire avionique de traitement de l'information de type IMA (abréviation de l'expression anglo-saxonne « Integrated Modular Avionics ») appelé
encore EMTI (pour Equipement Modulaire de Traitement de l'Information).
~o Dans le domaine aéronautique embarqué, la majorité des réflexions concernant le cockpit du futur débouche sur le besoin d'un visuel de casque porté par la tête, associé à une visualisation de très grand format présentée en téte basse. Cet ensemble doit permettre d'améliorer la perception de la situation globale (« situation awarness ») tout en réduisant 15 la charge du pilote grâce à une présentation d'une synthèse en temps réel des informations issues de sources multiples (senseurs, base de données).
Le son 3D s'inscrit dans la même approche que le visuel de casque en permettant aux pilotes d'acquérir des informations de situation spatiale (position des équipiers, des menaces,...) dans son repère propre, 2o par un canal de communication autre que visuel en suivant une modalité
naturelle. De manière générale, le son 3D enrichit le signal transmis d'une information de situation, statique ou dynamique, dans l'espace. Son emploi, outre la localisation de coéquipiers ou de menaces, peut couvrir d'autres applications comme l'intelligibilité multi-locuteurs.
25 Dans la demande de brevet français FR 2 744 871, la déposante a décrit un système de spatialisation de sources sonores produisant pour chaque source des canaux monophoniques (gauche/droite) spatialisés destinés à être reçus par un auditeur grâce à un casque stéréophonique, de telle sorte que les sources soient perçus par l'auditeur comme si elles 3o provenaient d'un point particulier de l'espace, ce point pouvant être la position effective de la source sonore ou bien une position arbitraire. Le principe de la spatialisation sonore est basé sur le calcul de la convolution de la source sonore à spatialiser (signal monophonique) avec des fonctions de transfert dites fonctions de transfert de tête (ou HRTF selon l'expression 35 anglo-saxonne « Head Related Transfert Functions ») propres à l'auditeur et qui ont été mesurées lors d'une phase d'enregistrement préalable. Ainsi, le
La présente invention concerne un système de spatialisation de s sources sonores à performances améliorées permettant notamment la réalisation d'un système de spatialisation compatible avec un équipement modulaire avionique de traitement de l'information de type IMA (abréviation de l'expression anglo-saxonne « Integrated Modular Avionics ») appelé
encore EMTI (pour Equipement Modulaire de Traitement de l'Information).
~o Dans le domaine aéronautique embarqué, la majorité des réflexions concernant le cockpit du futur débouche sur le besoin d'un visuel de casque porté par la tête, associé à une visualisation de très grand format présentée en téte basse. Cet ensemble doit permettre d'améliorer la perception de la situation globale (« situation awarness ») tout en réduisant 15 la charge du pilote grâce à une présentation d'une synthèse en temps réel des informations issues de sources multiples (senseurs, base de données).
Le son 3D s'inscrit dans la même approche que le visuel de casque en permettant aux pilotes d'acquérir des informations de situation spatiale (position des équipiers, des menaces,...) dans son repère propre, 2o par un canal de communication autre que visuel en suivant une modalité
naturelle. De manière générale, le son 3D enrichit le signal transmis d'une information de situation, statique ou dynamique, dans l'espace. Son emploi, outre la localisation de coéquipiers ou de menaces, peut couvrir d'autres applications comme l'intelligibilité multi-locuteurs.
25 Dans la demande de brevet français FR 2 744 871, la déposante a décrit un système de spatialisation de sources sonores produisant pour chaque source des canaux monophoniques (gauche/droite) spatialisés destinés à être reçus par un auditeur grâce à un casque stéréophonique, de telle sorte que les sources soient perçus par l'auditeur comme si elles 3o provenaient d'un point particulier de l'espace, ce point pouvant être la position effective de la source sonore ou bien une position arbitraire. Le principe de la spatialisation sonore est basé sur le calcul de la convolution de la source sonore à spatialiser (signal monophonique) avec des fonctions de transfert dites fonctions de transfert de tête (ou HRTF selon l'expression 35 anglo-saxonne « Head Related Transfert Functions ») propres à l'auditeur et qui ont été mesurées lors d'une phase d'enregistrement préalable. Ainsi, le
2 système décrit dans la demande ci-dessus mentionnée comprend notamment pour chaque source à spatialiser, un processeur binaural à deux voies de convolution dont le rôle est d'une part de calculer par interpolation les fonctions de transfert de tête (gauche/droite) au point en lequel sera s placée la source sonore, d'autre part de créer le signal spatialisé sur deux canaux à partir du signal monophonique original.
Le but de la présente invention est de définir un système de spatialisation présentant des performances améliorées de telle sorte notamment qu'il soit apte à s'intégrer dans un équipement modulaire avionique de traitement de l'information (EMTI) qui impose des contraintes notamment sur le nombre de processeurs et leur type.
Pour cela, l'invention propose un système de spatialisation dans lequel il n'est plus nécessaire de faire un calcul d'interpolation des fonctions de transfert de tête. II est alors possible pour effectuer les opérations de is convolution en vue de créer les signaux spatialisés de n'avoir plus qu'un calculateur unique au lieu des n processeurs binauraux nécessaires dans le système selon l'art antérieur pour spatialiser n sources.
Plus précisément, l'invention concerne un système de spatialisation d'au moins une source sonore créant pour chaque source deux 2o canaux monophoniques spatialisés destinés à être reçus par un auditeur, comprenant - une base de données filtres comprenant un ensemble de fonctions de transfert de tête propres à l'auditeur, - un processeur de présentation de données recevant l'information 25 issue de chaque source et comprenant notamment un module de calcul des positions relatives des sources par rapport à l'auditeur, -une unité de calcul desdits canaux monophoniques par convolution de chaque source sonore avec des fonctions de transfert de tête de ladite base de données estimées à ladite position de la source, so le système étant caractérisé en ce que ledit processeur de présentation de données comprend un module de sélection des fonctions de transfert de tête avec une résolution variable adaptée à la position relative de la source avec l'auditeur.
L'utilisation des bases de fonctions de transfert de la tête du pilote 3s adaptée à la précision requise pour une information donnée à spatialiser
Le but de la présente invention est de définir un système de spatialisation présentant des performances améliorées de telle sorte notamment qu'il soit apte à s'intégrer dans un équipement modulaire avionique de traitement de l'information (EMTI) qui impose des contraintes notamment sur le nombre de processeurs et leur type.
Pour cela, l'invention propose un système de spatialisation dans lequel il n'est plus nécessaire de faire un calcul d'interpolation des fonctions de transfert de tête. II est alors possible pour effectuer les opérations de is convolution en vue de créer les signaux spatialisés de n'avoir plus qu'un calculateur unique au lieu des n processeurs binauraux nécessaires dans le système selon l'art antérieur pour spatialiser n sources.
Plus précisément, l'invention concerne un système de spatialisation d'au moins une source sonore créant pour chaque source deux 2o canaux monophoniques spatialisés destinés à être reçus par un auditeur, comprenant - une base de données filtres comprenant un ensemble de fonctions de transfert de tête propres à l'auditeur, - un processeur de présentation de données recevant l'information 25 issue de chaque source et comprenant notamment un module de calcul des positions relatives des sources par rapport à l'auditeur, -une unité de calcul desdits canaux monophoniques par convolution de chaque source sonore avec des fonctions de transfert de tête de ladite base de données estimées à ladite position de la source, so le système étant caractérisé en ce que ledit processeur de présentation de données comprend un module de sélection des fonctions de transfert de tête avec une résolution variable adaptée à la position relative de la source avec l'auditeur.
L'utilisation des bases de fonctions de transfert de la tête du pilote 3s adaptée à la précision requise pour une information donnée à spatialiser
3 (menace, position d'un drône, etc.), alliée à une utilisation optimale des informations spatiales contenues dans chacune des positions de ces bases permet de réduire considérablement le nombre d'opérations à réaliser pour la spatialisation sans pour autant dégrader les performances.
D'autres avantages et caractéristiques apparaîtront plus clairement à la lecture de la description qui suit, illustrée par les figures annexées qui représentent - La figure 1, un schéma général d'un système de spatialisation selon l'invention ;
- La figure 2, un schéma fonctionnel d'un exemple de réalisation du système selon l'invention ;
- La figure 3, le schéma d'une unité de calcul d'un système de spatialisation selon l'exemple de la figure 2 ;
- La figure 4, un schéma d'implantation du système selon i 5 l'invention dans un équipement modulaire avionique de type IMA.
L'invention est décrite ci-dessous en référence à un système audiophonique d'avion, en particulier d'avion de combat, mais il est bien entendu qu'elle n'est pas limitée à une telle application et qu'elle peut être 2o mise en oeuvre aussi bien dans d'autres types de véhicules (terrestres ou maritimes) que dans des installations fixes. L'utilisateur de ce système est, dans le cas présent, le pilote d'un avion mais il peut y avoir simultanément plusieurs utilisateurs, en particulier s'il s'agit d'un avion de transport civil, des dispositifs particuliers à chaque utilisateur étant alors prévus en nombre 2s suffisant.
La figure 1 représente un schéma général d'un système de spatialisation de sources sonores selon l'invention dont le rôle est de faire entendre à un auditeur des signaux sonores (tonalités, paroles, alarmes, etc.) à l'aide d'un casque stéréophonique de telle sorte qu'ils soient perçus so par l'auditeur comme s'ils provenaient d'un point particulier de l'espace, ce point pouvant être la position effective de la source sonore ou bien une position arbitraire. Par exemple, la détection d'un missile par un appareil de contre-mesure pourra générer un son dont l'origine semblera provenir de l'origine de l'attaque, permettant au pilote de réagir plus rapidement. Ces 3s sons (signaux sonores monophoniques) sont par exemple enregistrés sous
D'autres avantages et caractéristiques apparaîtront plus clairement à la lecture de la description qui suit, illustrée par les figures annexées qui représentent - La figure 1, un schéma général d'un système de spatialisation selon l'invention ;
- La figure 2, un schéma fonctionnel d'un exemple de réalisation du système selon l'invention ;
- La figure 3, le schéma d'une unité de calcul d'un système de spatialisation selon l'exemple de la figure 2 ;
- La figure 4, un schéma d'implantation du système selon i 5 l'invention dans un équipement modulaire avionique de type IMA.
L'invention est décrite ci-dessous en référence à un système audiophonique d'avion, en particulier d'avion de combat, mais il est bien entendu qu'elle n'est pas limitée à une telle application et qu'elle peut être 2o mise en oeuvre aussi bien dans d'autres types de véhicules (terrestres ou maritimes) que dans des installations fixes. L'utilisateur de ce système est, dans le cas présent, le pilote d'un avion mais il peut y avoir simultanément plusieurs utilisateurs, en particulier s'il s'agit d'un avion de transport civil, des dispositifs particuliers à chaque utilisateur étant alors prévus en nombre 2s suffisant.
La figure 1 représente un schéma général d'un système de spatialisation de sources sonores selon l'invention dont le rôle est de faire entendre à un auditeur des signaux sonores (tonalités, paroles, alarmes, etc.) à l'aide d'un casque stéréophonique de telle sorte qu'ils soient perçus so par l'auditeur comme s'ils provenaient d'un point particulier de l'espace, ce point pouvant être la position effective de la source sonore ou bien une position arbitraire. Par exemple, la détection d'un missile par un appareil de contre-mesure pourra générer un son dont l'origine semblera provenir de l'origine de l'attaque, permettant au pilote de réagir plus rapidement. Ces 3s sons (signaux sonores monophoniques) sont par exemple enregistrés sous
4 PCT/FR2003/001998 forme numérique dans une base de données « sons ». Par ailleurs, il est tenu compte de l'évolution de la position de la source sonore en fonction des mouvements de la tête du pilote et des mouvements de l'avion. Ainsi, une alarme générée à l'azimut « 3 heures » doit se retrouver à « midi » si le pilote s tourne la tête de 90° vers la droite.
Le système selon l'invention comprend principalement un processeur CPU1 de présentation de données et une unité de calcul CPU2 générant les canaux monophoniques spatialisés. Le processeur de présentation de données CPU1 comprend notamment un module de calcul ~0 101 des positions relatives des sources par rapport à l'auditeur, c'est à
dire dans le repère de tête de l'auditeur. Ces positions sont par exemple calculées à partir d'informations reçues par un détecteur 11 d'attitude de la tête de l'auditeur et par un module 12 de détermination de la position de la source à restituer (ce module pouvant comprendre une centrale inertielle, un ~ 5 dispositif de localisation tel qu'un goniomètre, un radar, etc.). Le processeur CPU1 est relié à une base de données « filtres » 13 comprenant un ensemble de fonctions de transfert de tête (HRTF) propres à l'auditeur. Les fonctions de transfert de tête sont par exemple acquises lors d'une phase d'apprentissage antérieure. Elles sont spécifiques du délai inter-aurai de 20 l'auditeur (délai d'arrivée du son entre les deux oreilles), des caractéristiques physionomiques de chaque auditeur. Ce sont ces fonctions de transfert qui donnent à l'auditeur la sensation de la spatialisation. L'unité de calcul CPU2 génère les canaux monophoniques G et D spatialisés par convolution de chaque signal sonore monophonique caractéristique de la source à
25 spatialiser et contenu dans la base de données « sons » 14 avec des fonctions de transfert de tête de ladite base de données 13 estimées à la position de la source dans le repère de tête.
Dans les systèmes de spatialisation selon l'art antérieur, l'unité de calcul comprend autant de processeurs qu'il y a de sources sonores à
so spatialiser. En effet, il est nécessaire dans ces systèmes de procéder à
une interpolation spatiale des fonctions de transfert de tête afin de connaître les fonctions de transfert au point en lequel sera placée la source. Cette architecture nécessite de multiplier le nombre de processeurs dans l'unité de calcul, ce qui est incompatible d'un système de spatialisation modulaire pour intégration dans un équipement modulaire avionique de traitement de l'information.
Le système de spatialisation selon l'invention présente une architecture algorithmique spécifique qui permet notamment de réduire le s nombre de processeurs de l'unité de calcul. La déposante a montré que l'unité de calcul CPU2 peut alors être réalisée au moyen d'un composant programmable de type EPLD (abréviation de « Electronique programmable par portes logiques »). Pour ce faire, le processeur de présentation de données du système selon l'invention comprend un module de sélection 102 des fonctions de transfert de tête avec une résolution variable adaptée à la position relative de la source avec l'auditeur (ou position de la source dans le repère de tête). Grâce à ce module de sélection, il n'est plus nécessaire de procéder à des calculs d'interpolation pour estimer les fonctions de transfert à l'endroit où doit se situer la source sonore. On peut donc simplifier considérablement l'architecture de l'unité de calcul, dont un exemple de réalisation sera décrit par la suite. Par ailleurs, le module de sélection opérant une sélection de la résolution des fonctions de transfert en fonction de la position relative de la source sonore par rapport à l'auditeur, on peut travailler avec une base de données 13 des fonctions de transfert de tête 2o comprenant un nombre important de fonctions réparties régulièrement dans tout l'espace, sachant que seule une partie de celles-ci seront sélectionnées pour effectuer les calculs de convolution. Ainsi, la déposante a travaillé
avec une base de données dans laquelle les fonctions de transfert sont recueillies avec un pas de 7° en azimut, de 0 à 360°, et avec un pas de 10°en élévation, 25 de -70° à +90°.
Par ailleurs, la déposante a montré que grâce au module de sélection en résolution 102 du système selon l'invention, on peut limiter le nombre de coefficients de chaque fonction de transfert de tête utilisée à 40 (contre 128 ou 256 dans la plupart des systèmes de l'art antérieur) sans 3o dégradation des résultats de spatialisation sonore, ce qui réduit encore la puissance de calcul nécessaire à la fonction de spatialisation.
La déposante a ainsi démontré que l'utilisation des bases de fonctions de transfert de la tête du pilote adaptée à la précision requise pour une information donnée à spatialiser, alliée à une utilisation optimale des 35 informations spatiales contenues dans chacune des positions de ces bases s permet de réduire considérablement le nombre d'opérations à réaliser pour la spatialisation sans pour autant dégrader les performances.
L'unité de calcul CPU2 peut ainsi être réduite à un composant de type EPLD par exemple, même lorsque plusieurs sources doivent être spatialisées, ce qui permet de s'affranchir des protocoles de dialogue entre les différents processeurs binauraux nécessaires pour traiter la spatialisation de plusieurs sources sonores dans les systèmes de l'art antérieur.
Cette optimisation de la puissance de calcul dans le système selon l'invention permet également d'introduire d'autres fonctions qui seront 1o décrites par la suite.
La figure 2 représente un schéma fonctionnel d'un exemple de réalisation du système selon l'invention.
Le système de spatialisation comprend un processeur de présentation de données CPU1 recevant l'information issue de chaque ~s source et une unité de calcul CPU2 des canaux monophoniques droite et gauche spatialisés. Le processeur CPU1 comprend notamment le module 101 de calcul de la position relative d'une source sonore dans le repère de tête de l'auditeur, ce module recevant en temps réel des informations sur l'attitude de tête (position auditeur) et sur la position de la source à
restituer, 2o comme cela a été décrit précédemment. Selon l'invention, le module 102 de sélection en résolution des fonctions de transfert HRTF contenus dans la base de données 13 permet de sélectionner, pour chaque source à
spatialiser, en fonction de la position relative de la source, les fonctions de transfert qui seront utilisées pour la génération des sons spatialisés. Dans 25 l'exemple de la figure 2, un module de sélection des sons 103 relié à la base de données sons 14 permet de sélectionner le signal monophonique de la base de données qui sera envoyé dans l'unité de calcul CPU2 pour être convolué aux fonctions de transfert de tête gauche et droite adaptées.
Avantageusement, le module de sélection sons 103 opère une 3o hiérarchisation entre les sources sonores à spatialiser. En fonction des évènements système et des choix de logique de gestion de la plate-forme, un choix de sons concomitants à spatialiser sera réalisé. L'ensemble des informations permettant de définir cette logique de priorité de présentation spatiale transite sur le bus haut débit de l'EMTI. Le module de sélection des 35 sons 103 est par exemple relié à un module de configuration et de paramétrage 104 dans lequel sont enregistrés des critères de personnalisation propres à l'auditeur.
Les données concernant le choix des fonctions de transfert HRTF
ainsi que les sons à spatialiser sont envoyées vers l'unité de calcul CPU2 grâce à un lien de communication 15. Elles sont stockées de manière temporaire dans une mémoire de filtrage et de sons numériques 201. La partie de la mémoire contenant les sons numériques appelés « earcons »
(nom attribué aux sons utilisés comme alarmes ou alerte et possédant une valeur signifiante forte) est par exemple chargée à l'initialisation. Elle contient les échantillons de signaux audio préalablement numérisés dans la base de données sons 14. Sur requête du CPU1 hôte, la spatialisation d'un ou de plusieurs de ces signaux sera activée ou suspendue. Tant que l'activation persiste, le signal concerné est lu en boucle. Les calculs de convolution sont effectués par un calculateur 202, par exemple un composant de type EPLD
qui génère les sons spatialisés comme cela a été décrit précédemment.
Dans l'exemple de la figure 2, une interface processeur 203 constitue une mémoire utilisée pour les opérations de filtrage. Elle est composée de registres tampons pour les sons, les filtres HRTF, ainsi que des coefficients utilisés pour d'autres fonctions telles que la commutation 2o douce et la simulation de l'absorption atmosphérique qui seront décrites par la suite.
Avec le système de spatialisation selon l'invention, deux types de sons peuvent être spatialisés : les earcons (ou alarmes sonores) ou des sons provenant de radios directement (UHF/VHF) appelés « sons live » sur la figure 2.
La figure 3 représente le schéma d'une unité de calcul d'un système de spatialisation selon l'exemple de la figure 2.
Avantageusement, le système de spatialisation selon l'invention comprend un module 16 de conditionnement audio entrée/sortie qui récupère so en sortie les canaux monophoniques gauche et droite spatialisés pour les mettre en forme avant de les envoyer à l'auditeur. De façon optionnelle, si des communications « live » doivent être spatialisées, ces communications sont mises en forme par le module de conditionnement en vue de leur spatialisation par le calculateur 202 de l'unité de calcul. Par défaut, un son provenant d'une source dite live sera toujours prioritaire sur les sons à
spatialiser.
On retrouve l'interface processeur 203 qui constitue une mémoire court terme pour tous les paramètres utilisés.
Le calculateur 202 constitue le coeur de l'unité de calcul. Dans l'exemple de la figure 3, il comprend un module 204 d'activation et de sélection de sources, réalisant la fonction de mixage entre les entrées live et les sons de type earcons.
Grâce au système selon l'invention, le calculateur 202 peut ~o réaliser les fonctions de calcul pour les n sources à spatialiser. Dans l'exemple de la figure 3, quatre sources sonores peuvent être spatialiser.
II comprend un module 205 de double spatialisation, qui reçoit les fonctions de transfert adaptées et réalise la convolution avec le signal monophonique à spatialiser. Cette convolution est réalisée dans l'espace ~5 temporelle en utilisant les capacités de décalage des filtres FIR (filtres à
réponse impulsionnelle finie) associées aux délais inter-auraux.
Avantageusement, il comprend un module 206 de commutation douce, relié à un registre 207 de paramétrage calcul optimisant le choix des paramètres de transition en fonction de la vitesse de déplacement de la 2o source et de la téte de l'auditeur. Le module de commutation douce permet une transition, sans bruit de commutation audible, lors du passage d'une paire de filtres à la suivante. Cette fonction est réalisée par double rampe linéaire de pondération. Elle implique une double convolution : chaque échantillon de chaque canal de sortie résulte de la somme pondérée de deux 25 échantillons, chacun étant obtenu par convolution du signal d'entrée avec un filtre de spatialisation, élément de la base HRTF. A un instant donné, il y a donc en mémoire d'entrée deux paires de filtres de spatialisation par voie à
traiter.
Avantageusement, il comprend un module 208 de simulation so d'absorption atmosphérique. Cette fonction est par exemple réalisée par un filtrage linéaire à 30 coefficients et un gain, réalisé sur chaque canal (gauche, droite) de chaque voie, après traitement de spatialisation. Cette fonction permet à l'auditeur de percevoir l'effet de profondeur nécessaire à sa décision opérationnelle.
Enfin des modules de pondération dynamique 209 et de sommation 210 sont prévus pour effectuer la somme pondérée des canaux de chaque voie pour fournir un signal unique stéréophonique compatible de la dynamique de sortie. La seule contrainte associée à cette restitution stéréophonique est liée à la bande passante nécessaire à la spatialisation sonore (typiquement 20 kHz).
La figure 4 schématise l'architecture matérielle d'un équipement modulaire avionique 40 de traitement de l'information de type EMTI. II
comprend un bus haut débit 41 sur lequel on vient connecter l'ensemble des 1o fonctions de l'équipement, dont notamment le système de spatialisation sonore selon l'invention 42 tel que décrit précédemment, les autres fonctions 43 d'interface homme machine comme par exemple la commande vocale, la gestion de symbologie tête haute, le visuel de casque, etc., et une carte de gestion de système 44 qui a pour fonction l'interface avec les autres équipements de l'avion. Le système de spatialisation sonore 42 selon l'invention est connecté au bus haut débit par l'intermédiaire du processeur de présentation de données CPU1. II comprend par ailleurs l'unité de calcul CPU2, telle que décrite précédemment et formé par exemple d'un composant EPLD, compatible des exigences techniques de l'EMTI (nombre 2o et type d'opérations, espace mémoire, codage des échantillons audio, débit numérique).
Le système selon l'invention comprend principalement un processeur CPU1 de présentation de données et une unité de calcul CPU2 générant les canaux monophoniques spatialisés. Le processeur de présentation de données CPU1 comprend notamment un module de calcul ~0 101 des positions relatives des sources par rapport à l'auditeur, c'est à
dire dans le repère de tête de l'auditeur. Ces positions sont par exemple calculées à partir d'informations reçues par un détecteur 11 d'attitude de la tête de l'auditeur et par un module 12 de détermination de la position de la source à restituer (ce module pouvant comprendre une centrale inertielle, un ~ 5 dispositif de localisation tel qu'un goniomètre, un radar, etc.). Le processeur CPU1 est relié à une base de données « filtres » 13 comprenant un ensemble de fonctions de transfert de tête (HRTF) propres à l'auditeur. Les fonctions de transfert de tête sont par exemple acquises lors d'une phase d'apprentissage antérieure. Elles sont spécifiques du délai inter-aurai de 20 l'auditeur (délai d'arrivée du son entre les deux oreilles), des caractéristiques physionomiques de chaque auditeur. Ce sont ces fonctions de transfert qui donnent à l'auditeur la sensation de la spatialisation. L'unité de calcul CPU2 génère les canaux monophoniques G et D spatialisés par convolution de chaque signal sonore monophonique caractéristique de la source à
25 spatialiser et contenu dans la base de données « sons » 14 avec des fonctions de transfert de tête de ladite base de données 13 estimées à la position de la source dans le repère de tête.
Dans les systèmes de spatialisation selon l'art antérieur, l'unité de calcul comprend autant de processeurs qu'il y a de sources sonores à
so spatialiser. En effet, il est nécessaire dans ces systèmes de procéder à
une interpolation spatiale des fonctions de transfert de tête afin de connaître les fonctions de transfert au point en lequel sera placée la source. Cette architecture nécessite de multiplier le nombre de processeurs dans l'unité de calcul, ce qui est incompatible d'un système de spatialisation modulaire pour intégration dans un équipement modulaire avionique de traitement de l'information.
Le système de spatialisation selon l'invention présente une architecture algorithmique spécifique qui permet notamment de réduire le s nombre de processeurs de l'unité de calcul. La déposante a montré que l'unité de calcul CPU2 peut alors être réalisée au moyen d'un composant programmable de type EPLD (abréviation de « Electronique programmable par portes logiques »). Pour ce faire, le processeur de présentation de données du système selon l'invention comprend un module de sélection 102 des fonctions de transfert de tête avec une résolution variable adaptée à la position relative de la source avec l'auditeur (ou position de la source dans le repère de tête). Grâce à ce module de sélection, il n'est plus nécessaire de procéder à des calculs d'interpolation pour estimer les fonctions de transfert à l'endroit où doit se situer la source sonore. On peut donc simplifier considérablement l'architecture de l'unité de calcul, dont un exemple de réalisation sera décrit par la suite. Par ailleurs, le module de sélection opérant une sélection de la résolution des fonctions de transfert en fonction de la position relative de la source sonore par rapport à l'auditeur, on peut travailler avec une base de données 13 des fonctions de transfert de tête 2o comprenant un nombre important de fonctions réparties régulièrement dans tout l'espace, sachant que seule une partie de celles-ci seront sélectionnées pour effectuer les calculs de convolution. Ainsi, la déposante a travaillé
avec une base de données dans laquelle les fonctions de transfert sont recueillies avec un pas de 7° en azimut, de 0 à 360°, et avec un pas de 10°en élévation, 25 de -70° à +90°.
Par ailleurs, la déposante a montré que grâce au module de sélection en résolution 102 du système selon l'invention, on peut limiter le nombre de coefficients de chaque fonction de transfert de tête utilisée à 40 (contre 128 ou 256 dans la plupart des systèmes de l'art antérieur) sans 3o dégradation des résultats de spatialisation sonore, ce qui réduit encore la puissance de calcul nécessaire à la fonction de spatialisation.
La déposante a ainsi démontré que l'utilisation des bases de fonctions de transfert de la tête du pilote adaptée à la précision requise pour une information donnée à spatialiser, alliée à une utilisation optimale des 35 informations spatiales contenues dans chacune des positions de ces bases s permet de réduire considérablement le nombre d'opérations à réaliser pour la spatialisation sans pour autant dégrader les performances.
L'unité de calcul CPU2 peut ainsi être réduite à un composant de type EPLD par exemple, même lorsque plusieurs sources doivent être spatialisées, ce qui permet de s'affranchir des protocoles de dialogue entre les différents processeurs binauraux nécessaires pour traiter la spatialisation de plusieurs sources sonores dans les systèmes de l'art antérieur.
Cette optimisation de la puissance de calcul dans le système selon l'invention permet également d'introduire d'autres fonctions qui seront 1o décrites par la suite.
La figure 2 représente un schéma fonctionnel d'un exemple de réalisation du système selon l'invention.
Le système de spatialisation comprend un processeur de présentation de données CPU1 recevant l'information issue de chaque ~s source et une unité de calcul CPU2 des canaux monophoniques droite et gauche spatialisés. Le processeur CPU1 comprend notamment le module 101 de calcul de la position relative d'une source sonore dans le repère de tête de l'auditeur, ce module recevant en temps réel des informations sur l'attitude de tête (position auditeur) et sur la position de la source à
restituer, 2o comme cela a été décrit précédemment. Selon l'invention, le module 102 de sélection en résolution des fonctions de transfert HRTF contenus dans la base de données 13 permet de sélectionner, pour chaque source à
spatialiser, en fonction de la position relative de la source, les fonctions de transfert qui seront utilisées pour la génération des sons spatialisés. Dans 25 l'exemple de la figure 2, un module de sélection des sons 103 relié à la base de données sons 14 permet de sélectionner le signal monophonique de la base de données qui sera envoyé dans l'unité de calcul CPU2 pour être convolué aux fonctions de transfert de tête gauche et droite adaptées.
Avantageusement, le module de sélection sons 103 opère une 3o hiérarchisation entre les sources sonores à spatialiser. En fonction des évènements système et des choix de logique de gestion de la plate-forme, un choix de sons concomitants à spatialiser sera réalisé. L'ensemble des informations permettant de définir cette logique de priorité de présentation spatiale transite sur le bus haut débit de l'EMTI. Le module de sélection des 35 sons 103 est par exemple relié à un module de configuration et de paramétrage 104 dans lequel sont enregistrés des critères de personnalisation propres à l'auditeur.
Les données concernant le choix des fonctions de transfert HRTF
ainsi que les sons à spatialiser sont envoyées vers l'unité de calcul CPU2 grâce à un lien de communication 15. Elles sont stockées de manière temporaire dans une mémoire de filtrage et de sons numériques 201. La partie de la mémoire contenant les sons numériques appelés « earcons »
(nom attribué aux sons utilisés comme alarmes ou alerte et possédant une valeur signifiante forte) est par exemple chargée à l'initialisation. Elle contient les échantillons de signaux audio préalablement numérisés dans la base de données sons 14. Sur requête du CPU1 hôte, la spatialisation d'un ou de plusieurs de ces signaux sera activée ou suspendue. Tant que l'activation persiste, le signal concerné est lu en boucle. Les calculs de convolution sont effectués par un calculateur 202, par exemple un composant de type EPLD
qui génère les sons spatialisés comme cela a été décrit précédemment.
Dans l'exemple de la figure 2, une interface processeur 203 constitue une mémoire utilisée pour les opérations de filtrage. Elle est composée de registres tampons pour les sons, les filtres HRTF, ainsi que des coefficients utilisés pour d'autres fonctions telles que la commutation 2o douce et la simulation de l'absorption atmosphérique qui seront décrites par la suite.
Avec le système de spatialisation selon l'invention, deux types de sons peuvent être spatialisés : les earcons (ou alarmes sonores) ou des sons provenant de radios directement (UHF/VHF) appelés « sons live » sur la figure 2.
La figure 3 représente le schéma d'une unité de calcul d'un système de spatialisation selon l'exemple de la figure 2.
Avantageusement, le système de spatialisation selon l'invention comprend un module 16 de conditionnement audio entrée/sortie qui récupère so en sortie les canaux monophoniques gauche et droite spatialisés pour les mettre en forme avant de les envoyer à l'auditeur. De façon optionnelle, si des communications « live » doivent être spatialisées, ces communications sont mises en forme par le module de conditionnement en vue de leur spatialisation par le calculateur 202 de l'unité de calcul. Par défaut, un son provenant d'une source dite live sera toujours prioritaire sur les sons à
spatialiser.
On retrouve l'interface processeur 203 qui constitue une mémoire court terme pour tous les paramètres utilisés.
Le calculateur 202 constitue le coeur de l'unité de calcul. Dans l'exemple de la figure 3, il comprend un module 204 d'activation et de sélection de sources, réalisant la fonction de mixage entre les entrées live et les sons de type earcons.
Grâce au système selon l'invention, le calculateur 202 peut ~o réaliser les fonctions de calcul pour les n sources à spatialiser. Dans l'exemple de la figure 3, quatre sources sonores peuvent être spatialiser.
II comprend un module 205 de double spatialisation, qui reçoit les fonctions de transfert adaptées et réalise la convolution avec le signal monophonique à spatialiser. Cette convolution est réalisée dans l'espace ~5 temporelle en utilisant les capacités de décalage des filtres FIR (filtres à
réponse impulsionnelle finie) associées aux délais inter-auraux.
Avantageusement, il comprend un module 206 de commutation douce, relié à un registre 207 de paramétrage calcul optimisant le choix des paramètres de transition en fonction de la vitesse de déplacement de la 2o source et de la téte de l'auditeur. Le module de commutation douce permet une transition, sans bruit de commutation audible, lors du passage d'une paire de filtres à la suivante. Cette fonction est réalisée par double rampe linéaire de pondération. Elle implique une double convolution : chaque échantillon de chaque canal de sortie résulte de la somme pondérée de deux 25 échantillons, chacun étant obtenu par convolution du signal d'entrée avec un filtre de spatialisation, élément de la base HRTF. A un instant donné, il y a donc en mémoire d'entrée deux paires de filtres de spatialisation par voie à
traiter.
Avantageusement, il comprend un module 208 de simulation so d'absorption atmosphérique. Cette fonction est par exemple réalisée par un filtrage linéaire à 30 coefficients et un gain, réalisé sur chaque canal (gauche, droite) de chaque voie, après traitement de spatialisation. Cette fonction permet à l'auditeur de percevoir l'effet de profondeur nécessaire à sa décision opérationnelle.
Enfin des modules de pondération dynamique 209 et de sommation 210 sont prévus pour effectuer la somme pondérée des canaux de chaque voie pour fournir un signal unique stéréophonique compatible de la dynamique de sortie. La seule contrainte associée à cette restitution stéréophonique est liée à la bande passante nécessaire à la spatialisation sonore (typiquement 20 kHz).
La figure 4 schématise l'architecture matérielle d'un équipement modulaire avionique 40 de traitement de l'information de type EMTI. II
comprend un bus haut débit 41 sur lequel on vient connecter l'ensemble des 1o fonctions de l'équipement, dont notamment le système de spatialisation sonore selon l'invention 42 tel que décrit précédemment, les autres fonctions 43 d'interface homme machine comme par exemple la commande vocale, la gestion de symbologie tête haute, le visuel de casque, etc., et une carte de gestion de système 44 qui a pour fonction l'interface avec les autres équipements de l'avion. Le système de spatialisation sonore 42 selon l'invention est connecté au bus haut débit par l'intermédiaire du processeur de présentation de données CPU1. II comprend par ailleurs l'unité de calcul CPU2, telle que décrite précédemment et formé par exemple d'un composant EPLD, compatible des exigences techniques de l'EMTI (nombre 2o et type d'opérations, espace mémoire, codage des échantillons audio, débit numérique).
Claims (17)
1- Système de spatialisation (42) d'au moins une source sonore créant pour chaque source deux canaux monophoniques spatialisés (G, D) destinés à être reçus par un auditeur, comprenant - une base de données filtres (13) comprenant un ensemble de fonctions de transfert de tête (HRTF) propres à l'auditeur, - un processeur (CPU1) de présentation de données recevant l'information issue de chaque source et comprenant notamment un module de calcul (101) des positions relatives des sources par rapport à l'auditeur, -une unité de calcul (CPU2) desdits canaux monophoniques par convolution de chaque source sonore avec des fonctions de transfert de tête de ladite base de données estimées à ladite position de la source, le système étant caractérisé en ce que ledit processeur de présentation de données comprend un module (102) de sélection des fonctions de transfert de tête avec une résolution variable adaptée à la position relative de la source avec l'auditeur.
2- Système de spatialisation selon la revendication 1, caractérisé
en ce que les fonctions de transfert (HRTF) comprises dans la base de données (13) sont recueillies avec un pas de 7° en azimut, de 0 à
360°, et avec un pas de 10°en élévation, de -70° à +90°.
en ce que les fonctions de transfert (HRTF) comprises dans la base de données (13) sont recueillies avec un pas de 7° en azimut, de 0 à
360°, et avec un pas de 10°en élévation, de -70° à +90°.
3- Système de spatialisation selon l'une des revendications 1 ou 2, caractérisé en ce que le nombre de coefficients de chaque fonction de transfert de tête est d'environ 40.
4- Système de spatialisation selon l'une des revendications précédentes, caractérisé en ce qu'il comprend une base de données sons (14) contenant sous forme numérique un signal sonore monophonique caractéristique de chaque source à spatialiser, ce signal sonore étant destiné
à être convolué avec les fonctions de transfert de tête sélectionnées.
à être convolué avec les fonctions de transfert de tête sélectionnées.
5- Système de spatialisation sonore selon la revendication 4, caractérisé en ce que le processeur (CPU1) de présentation de données comprend un module (103) de sélection des sons relié à la base de données sons (14) et opérant une hiérarchisation entre les sources sonores concomitantes à spatialiser.
6- Système de spatialisation sonore selon la revendication 5, caractérisé en ce que le processeur (CPU1) de présentation de données comprend un module (104) de configuration et de paramétrage auquel est relié le module de sélection des sons (103) et dans lequel sont enregistrés des critères de personnalisation propres à l'auditeur.
7- Système de spatialisation selon l'une des revendications précédentes, caractérisé en ce qu'il comprend un module (16) de conditionnement audio entrée/sortie qui récupère en sortie les canaux monophoniques (G, D) spatialisés pour les mettre en forme avant de les envoyer à l'auditeur.
8- Système de spatialisation selon la revendication 7, caractérisé
en ce que des communications ~ live ~ devant être spatialisées, ces communications sont mises en forme par le module de conditionnement (16) en vue de leur spatialisation par l'unité de calcul (CPU2).
en ce que des communications ~ live ~ devant être spatialisées, ces communications sont mises en forme par le module de conditionnement (16) en vue de leur spatialisation par l'unité de calcul (CPU2).
9- Système de spatialisation sonore selon l'une des revendications précédentes, caractérisé en ce que l'unité de calcul (CPU2) comprend une interface processeur (203) en liaison avec l'unité de présentation des données (CPU1) et un calculateur (202) pour la génération des canaux monophoniques spatialisés (G, D).
10- Système de spatialisation sonore selon la revendication 9, caractérisé en ce que le système comprenant une base de données sons (14), l'interface processeur (203) comprend des registres tampons pour les fonctions de transfert de la base de données filtres (13) et les sons de la base de données sons (14).
11- Système de spatialisation selon l'une des revendications 9 ou 10, caractérisé en ce que le calculateur (202) est réalisé par un composant programmable de type EPLD.
12- Système de spatialisation selon l'une des revendications 10 ou 11, caractérisé en ce que le calculateur (202) comprend un module (204) d'activation et de sélection de sources, réalisant la fonction de mixage entre des communications ~live ~ et les sons de la base de données sons (14).
13- Système de spatialisation selon l'une des revendications 9 à
12, caractérisé en ce que le calculateur (202) comprend un module (205) de double spatialisation, qui reçoit les fonctions de transfert adaptées et réalise la convolution avec le signal monophonique à spatialiser.
12, caractérisé en ce que le calculateur (202) comprend un module (205) de double spatialisation, qui reçoit les fonctions de transfert adaptées et réalise la convolution avec le signal monophonique à spatialiser.
14 - Système de spatialisation selon l'une des revendications 9 à
13, caractérisé en ce que le calculateur (202) comprend un module (206) de commutation douce réalisée par double rampe linéaire de pondération.
13, caractérisé en ce que le calculateur (202) comprend un module (206) de commutation douce réalisée par double rampe linéaire de pondération.
15- Système de spatialisation selon l'une des revendications 9 à
14, caractérisé en ce que le calculateur (202) comprend un module (208) de simulation d'absorption atmosphérique.
14, caractérisé en ce que le calculateur (202) comprend un module (208) de simulation d'absorption atmosphérique.
16- Système de spatialisation selon l'une des revendications 9 à
15, caractérisé en ce que le calculateur (202) comprend un module de pondération dynamique (209) et un module de sommation (210) pour effectuer la somme pondérée des canaux de chaque voie et fournir un signal unique stéréophonique compatible de la dynamique de sortie.
15, caractérisé en ce que le calculateur (202) comprend un module de pondération dynamique (209) et un module de sommation (210) pour effectuer la somme pondérée des canaux de chaque voie et fournir un signal unique stéréophonique compatible de la dynamique de sortie.
17- Equipement modulaire avionique de traitement de l'information (40) comprenant un bus haut débit (41) sur lequel est connecté le système de spatialisation sonore (42) selon l'une des revendications précédentes par l'intermédiaire du processeur de présentation de données (CPU1).
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR02/08265 | 2002-07-02 | ||
FR0208265A FR2842064B1 (fr) | 2002-07-02 | 2002-07-02 | Systeme de spatialisation de sources sonores a performances ameliorees |
PCT/FR2003/001998 WO2004006624A1 (fr) | 2002-07-02 | 2003-06-27 | Systeme de spatialisation de sources sonores |
Publications (1)
Publication Number | Publication Date |
---|---|
CA2490501A1 true CA2490501A1 (fr) | 2004-01-15 |
Family
ID=29725087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CA002490501A Abandoned CA2490501A1 (fr) | 2002-07-02 | 2003-06-27 | Systeme de spatialisation de sources sonores |
Country Status (10)
Country | Link |
---|---|
US (1) | US20050271212A1 (fr) |
EP (1) | EP1658755B1 (fr) |
AT (1) | ATE390029T1 (fr) |
AU (1) | AU2003267499C1 (fr) |
CA (1) | CA2490501A1 (fr) |
DE (1) | DE60319886T2 (fr) |
ES (1) | ES2302936T3 (fr) |
FR (1) | FR2842064B1 (fr) |
IL (1) | IL165911A (fr) |
WO (1) | WO2004006624A1 (fr) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2865096B1 (fr) * | 2004-01-13 | 2007-12-28 | Cabasse | Systeme acoustique pour vehicule et dispositif correspondant |
JP2006180467A (ja) * | 2004-11-24 | 2006-07-06 | Matsushita Electric Ind Co Ltd | 音像定位装置 |
EP1855474A1 (fr) * | 2006-05-12 | 2007-11-14 | Sony Deutschland Gmbh | Méthode pour générer une image interpolée entre deux images d'une séquence d'images |
DE102006027673A1 (de) | 2006-06-14 | 2007-12-20 | Friedrich-Alexander-Universität Erlangen-Nürnberg | Signaltrenner, Verfahren zum Bestimmen von Ausgangssignalen basierend auf Mikrophonsignalen und Computerprogramm |
US9031242B2 (en) | 2007-11-06 | 2015-05-12 | Starkey Laboratories, Inc. | Simulated surround sound hearing aid fitting system |
KR20100116223A (ko) * | 2008-03-20 | 2010-10-29 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 음향 디스플레이 장치 및 방법 |
FR2938396A1 (fr) * | 2008-11-07 | 2010-05-14 | Thales Sa | Procede et systeme de spatialisation du son par mouvement dynamique de la source |
US9264812B2 (en) | 2012-06-15 | 2016-02-16 | Kabushiki Kaisha Toshiba | Apparatus and method for localizing a sound image, and a non-transitory computer readable medium |
GB2574946B (en) * | 2015-10-08 | 2020-04-22 | Facebook Inc | Binaural synthesis |
GB2544458B (en) | 2015-10-08 | 2019-10-02 | Facebook Inc | Binaural synthesis |
US10331750B2 (en) | 2016-08-01 | 2019-06-25 | Facebook, Inc. | Systems and methods to manage media content items |
CN110192396A (zh) * | 2016-11-04 | 2019-08-30 | 迪拉克研究公司 | 用于基于头部跟踪数据确定和/或使用音频滤波器的方法和系统 |
US10394929B2 (en) * | 2016-12-20 | 2019-08-27 | Mediatek, Inc. | Adaptive execution engine for convolution computing systems |
DE112019005822T5 (de) * | 2018-11-21 | 2021-09-09 | Google Llc | Vorrichtung und verfahren zur bereitstellung einer situationserkennung unter verwendung von positionssensoren und virtueller akustischer modellierung |
EP4085660A4 (fr) | 2019-12-30 | 2024-05-22 | Comhear Inc | Procédé pour fournir un champ sonore spatialisé |
FR3110762B1 (fr) | 2020-05-20 | 2022-06-24 | Thales Sa | Dispositif de personnalisation d'un signal audio généré automatiquement par au moins un équipement matériel avionique d'un aéronef |
JPWO2022196135A1 (fr) * | 2021-03-16 | 2022-09-22 | ||
JPWO2022219881A1 (fr) * | 2021-04-12 | 2022-10-20 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4583075A (en) * | 1980-11-07 | 1986-04-15 | Fairchild Camera And Instrument Corporation | Method and apparatus for analyzing an analog-to-digital converter with a nonideal digital-to-analog converter |
US4817149A (en) * | 1987-01-22 | 1989-03-28 | American Natural Sound Company | Three-dimensional auditory display apparatus and method utilizing enhanced bionic emulation of human binaural sound localization |
US5645074A (en) * | 1994-08-17 | 1997-07-08 | Decibel Instruments, Inc. | Intracanal prosthesis for hearing evaluation |
US6043676A (en) * | 1994-11-04 | 2000-03-28 | Altera Corporation | Wide exclusive or and wide-input and for PLDS |
JP3258195B2 (ja) * | 1995-03-27 | 2002-02-18 | シャープ株式会社 | 音像定位制御装置 |
US5742689A (en) * | 1996-01-04 | 1998-04-21 | Virtual Listening Systems, Inc. | Method and device for processing a multichannel signal for use with a headphone |
FR2744277B1 (fr) * | 1996-01-26 | 1998-03-06 | Sextant Avionique | Procede de reconnaissance vocale en ambiance bruitee, et dispositif de mise en oeuvre |
FR2744320B1 (fr) * | 1996-01-26 | 1998-03-06 | Sextant Avionique | Systeme de prise de son et d'ecoute pour equipement de tete en ambiance bruitee |
FR2744871B1 (fr) * | 1996-02-13 | 1998-03-06 | Sextant Avionique | Systeme de spatialisation sonore, et procede de personnalisation pour sa mise en oeuvre |
KR0175515B1 (ko) * | 1996-04-15 | 1999-04-01 | 김광호 | 테이블 조사 방식의 스테레오 구현 장치와 방법 |
JP3976360B2 (ja) * | 1996-08-29 | 2007-09-19 | 富士通株式会社 | 立体音響処理装置 |
DE69733956T2 (de) * | 1996-09-27 | 2006-06-01 | Honeywell, Inc., Minneapolis | Integration und steuerung von flugzeugdienstleistungssystemen |
US6181800B1 (en) * | 1997-03-10 | 2001-01-30 | Advanced Micro Devices, Inc. | System and method for interactive approximation of a head transfer function |
US6173061B1 (en) * | 1997-06-23 | 2001-01-09 | Harman International Industries, Inc. | Steering of monaural sources of sound using head related transfer functions |
FR2765715B1 (fr) * | 1997-07-04 | 1999-09-17 | Sextant Avionique | Procede de recherche d'un modele de bruit dans des signaux sonores bruites |
FR2771542B1 (fr) * | 1997-11-21 | 2000-02-11 | Sextant Avionique | Procede de filtrage frequentiel applique au debruitage de signaux sonores mettant en oeuvre un filtre de wiener |
US6996244B1 (en) * | 1998-08-06 | 2006-02-07 | Vulcan Patents Llc | Estimation of head-related transfer functions for spatial sound representative |
FR2786107B1 (fr) * | 1998-11-25 | 2001-02-16 | Sextant Avionique | Masque inhalateur d'oxygene avec dispositif de prise de son |
GB2374772B (en) * | 2001-01-29 | 2004-12-29 | Hewlett Packard Co | Audio user interface |
US7123728B2 (en) * | 2001-08-15 | 2006-10-17 | Apple Computer, Inc. | Speaker equalization tool |
US20030223602A1 (en) * | 2002-06-04 | 2003-12-04 | Elbit Systems Ltd. | Method and system for audio imaging |
-
2002
- 2002-07-02 FR FR0208265A patent/FR2842064B1/fr not_active Expired - Fee Related
-
2003
- 2003-06-27 US US10/518,720 patent/US20050271212A1/en not_active Abandoned
- 2003-06-27 AU AU2003267499A patent/AU2003267499C1/en not_active Ceased
- 2003-06-27 WO PCT/FR2003/001998 patent/WO2004006624A1/fr active IP Right Grant
- 2003-06-27 AT AT03748189T patent/ATE390029T1/de not_active IP Right Cessation
- 2003-06-27 ES ES03748189T patent/ES2302936T3/es not_active Expired - Lifetime
- 2003-06-27 EP EP03748189A patent/EP1658755B1/fr not_active Expired - Lifetime
- 2003-06-27 DE DE60319886T patent/DE60319886T2/de not_active Expired - Fee Related
- 2003-06-27 CA CA002490501A patent/CA2490501A1/fr not_active Abandoned
-
2004
- 2004-12-21 IL IL165911A patent/IL165911A/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
AU2003267499B2 (en) | 2008-04-17 |
DE60319886T2 (de) | 2009-04-23 |
EP1658755A1 (fr) | 2006-05-24 |
FR2842064B1 (fr) | 2004-12-03 |
AU2003267499C1 (en) | 2009-01-15 |
ES2302936T3 (es) | 2008-08-01 |
DE60319886D1 (de) | 2008-04-30 |
FR2842064A1 (fr) | 2004-01-09 |
IL165911A0 (en) | 2006-01-15 |
EP1658755B1 (fr) | 2008-03-19 |
US20050271212A1 (en) | 2005-12-08 |
IL165911A (en) | 2010-04-15 |
ATE390029T1 (de) | 2008-04-15 |
AU2003267499A1 (en) | 2004-01-23 |
WO2004006624A1 (fr) | 2004-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1658755B1 (fr) | Systeme de spatialisation de sources sonores | |
CA2197166C (fr) | Systeme de spatialisation sonore, et procede de personnalisation pour sa mise en oeuvre | |
AU2022202513B2 (en) | Generating binaural audio in response to multi-channel audio using at least one feedback delay network | |
US10820097B2 (en) | Method, systems and apparatus for determining audio representation(s) of one or more audio sources | |
EP2898707B1 (fr) | Calibration optimisee d'un systeme de restitution sonore multi haut-parleurs | |
EP2508011B1 (fr) | Traitement de zoom audio au sein d'une scène audio | |
CN113889125B (zh) | 音频生成方法、装置、计算机设备和存储介质 | |
WO2018132235A1 (fr) | Rendu binauriculaire découplé | |
EP2194734A1 (fr) | Procédé et système de spatialisation du son par mouvement dynamique de la source | |
US20180220251A1 (en) | Ambisonic audio with non-head tracked stereo based on head position and time | |
GB2590256A (en) | Method and device for processing audio signal | |
FR3025325A1 (fr) | Dispositif et procede de localisation et de cartographie | |
EP1652406B1 (fr) | Systeme et procede de determination d'une representation d'un champ acoustique | |
US9715366B2 (en) | Digital map of a physical location based on a user's field of interest and a specific sound pattern | |
EP3400599A1 (fr) | Encodeur ambisonique ameliore d'une source sonore a pluralite de reflexions | |
Maempel et al. | Audiovisual perception of real and virtual rooms | |
EP3025514B1 (fr) | Spatialisation sonore avec effet de salle | |
Oliveira et al. | Real-time dynamic image-source implementation for auralisation | |
US11451931B1 (en) | Multi device clock synchronization for sensor data fusion | |
WO2023043963A1 (fr) | Systèmes et procédés de réalisation de rendu acoustique virtuel efficace et précis | |
JP6526582B2 (ja) | 再合成装置、再合成方法、プログラム | |
Han | On the relation between directional bands and head movements | |
WO2000008896A1 (fr) | Dispositif de simulation sonore, et procede pour realiser un tel dispositif | |
CN115335899A (zh) | 用于目标语音分离的具有神经网络的多抽头最小方差无失真响应波束成形器 | |
FR3070568A1 (fr) | Systemes et procedes pour reduire les effets d'annulation de phase lors de l'utilisation de casque audio |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EEER | Examination request | ||
FZDE | Discontinued |