DE60319886T2 - Tonquelle-raumklangssystem - Google Patents

Tonquelle-raumklangssystem Download PDF

Info

Publication number
DE60319886T2
DE60319886T2 DE60319886T DE60319886T DE60319886T2 DE 60319886 T2 DE60319886 T2 DE 60319886T2 DE 60319886 T DE60319886 T DE 60319886T DE 60319886 T DE60319886 T DE 60319886T DE 60319886 T2 DE60319886 T2 DE 60319886T2
Authority
DE
Germany
Prior art keywords
module
sound
spatialisationssystem
listener
source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE60319886T
Other languages
English (en)
Other versions
DE60319886D1 (de
Inventor
Reynaud
THALES Intellectual Prop c/o
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Application granted granted Critical
Publication of DE60319886D1 publication Critical patent/DE60319886D1/de
Publication of DE60319886T2 publication Critical patent/DE60319886T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Holo Graphy (AREA)
  • Surface Acoustic Wave Elements And Circuit Networks Thereof (AREA)

Description

  • Die vorliegende Erfindung betrifft ein System zur Spatialisation von Schallquellen mit verbesserten Leistungen, die insbesondere die Herstellung eines Spatialisationssystems erlauben, das mit einer modularen Avionik-Einrichtung zur Informationsverarbeitung vom Typ IMA (Abkürzung des englischen Ausdrucks "Integrated Modular Avionics") kompatibel ist, auch EMTI (für Equipement Modulaire de Traitement de l'Information – modulare Informationsverarbeitungseinrichtung) genannt.
  • Auf dem Gebiet der Bord-Aeronautik führen die meisten der Überlegungen betreffend das zukünftige Cockpit zur Notwendigkeit eines kopfgetragenen Helm-Sichtgeräts zusammen mit einer Sichtbarmachung in sehr großem Format, die beim Blick nach unten präsentiert wird. Diese Einheit muss es ermöglichen, die Wahrnehmung der globalen Situation ("situation awareness") zu verbessern und gleichzeitig mit Hilfe einer Darstellung einer Echtzeitsynthese der von vielen Quellen (Sensoren, Datenbank) stammenden Informationen die Belastung des Piloten zu verringern.
  • Der 3D-Ton gehört zur gleichen Vorgehensweise wie das Helm-Sichtgerät, indem er es den Piloten ermöglicht, Informationen der räumlichen Situation (Position der Besatzungsmitglieder, der Bedrohungen, ...) in seinem eigenen Koordinatensystem über einen anderen als visuellen Kommunikationskanal zu erfassen, indem er einer natürlichen Modalität folgt. Allgemein bereichert der 3D-Ton das übertragene Signal um eine statische oder dynamische Situationsinformation im Raum. Seine Verwendung, abgesehen von der Lokalisierung von Besatzungsmitgliedern oder von Bedrohungen, kann andere Anwendungen wie die Verständlichkeit von mehreren Sprechern abdecken.
  • In der französischen Patentanmeldung FR 2 744 871 hat die Anmelderin ein Spatialisationssystem für Schallquellen beschrieben, das für jede Quelle spatialisierte monophone Kanäle (links/rechts) erzeugt, die dazu bestimmt sind, von einem Hörer mit Hilfe eines Stereo-Helms empfangen zu werden, so dass die Quellen von dem Hörer so wahrgenommen werden, als ob sie von einem bestimmten Punkt des Raums kämen, wobei dieser Punkt die tatsächliche Position der Schallquelle oder auch eine willkürliche Position sein kann. Das Prinzip der Schall-Spatialisation beruht auf der Berechnung der Faltung der zu spatialisierenden Schallquelle (monophones Signal) mit Übertragungsfunktionen, kopfbezogenen Übertragungsfunktionen (oder HRTF gemäß dem englischen Ausdruck "Head Related Transfer Functions") genannt, die dem Hörer eigen sind und die während einer vorhergehenden Aufzeichnungsphase gemessen wurden. So weist das in der oben erwähnten Anmeldung beschriebene System insbesondere für jede zu spatialisierende Quelle einen binauralen Prozessor mit zwei Faltungspfaden auf, dessen Aufgabe es einerseits ist, durch Interpolation die kopfbezogenen Übertragungsfunktionen (links/rechts) an dem Punkt zu berechnen, an dem die Schallquelle angeordnet sein wird, und andererseits das spatialisierte Signal in zwei Kanälen ausgehend von dem ursprünglichen monophonen Signal zu erzeugen.
  • Es ist das Ziel der vorliegenden Erfindung, ein Spatialisationssystem zu definieren, das derart verbesserte Leistungen aufweist, dass es insbesondere in der Lage ist, sich in eine modulare Avionik-Einrichtung zur Informationsverarbeitung (EMTI) zu integrieren, die insbesondere bezüglich der Anzahl der Prozessoren und ihres Typs Beschränkungen auferlegt.
  • Hierzu schlägt die Erfindung ein Spatialisationssystem vor, bei dem es nicht mehr notwendig ist, eine Interpolationsberechnung der kopfbezogenen Übertragungsfunktionen durchzuführen. Es ist dann zur Durchführung der Faltungsoperationen, um die spatialisierten Signale zu erzeugen, möglich, nur noch einen einzigen Rechner anstelle der n binauralen Prozessoren zu haben, die im System des Stands der Technik notwendig sind, um n Quellen zu spatialisieren.
  • Genauer betrifft die Erfindung ein System zur Spatialisation mindestens einer Schallquelle, das für jede Quelle zwei spatialisierte monophone Kanäle erzeugt, die dazu bestimmt sind, von einem Hörer empfangen zu werden, mit
    • – einer Filterdatenbank, die eine Einheit von kopfbezogenen Übertragungsfunktionen aufweist, die dem Hörer eigen sind, - einem Prozessor der Datendarstellung, der die von jeder Quelle stammende Information empfängt und insbesondere ein Modul zur Berechnung der relativen Positionen der Quellen bezüglich des Hörers aufweist,
    • – einer Einheit zur Berechnung der monophonen Kanäle durch Faltung jeder Schallquelle mit kopfbezogenen Übertragungsfunktionen der Bank von geschätzten Daten in der Position der Quelle,
    wobei das System dadurch gekennzeichnet ist, dass der Prozessor der Datendarstellung ein Modul der Auswahl der kopfbezogenen Übertragungsfunktionen mit einer variablen Auflösung aufweist, die an die relative Position der Quelle zum Hörer angepasst ist.
  • Die Verwendung der Banken von auf den Kopf des Piloten bezogenen Übertragungsfunktionen, die für die erforderliche Präzision für eine gegebene zu spatialisierende Information geeignet sind (Bedrohung, Position einer Drohne, usw.), verbunden mit einer optimalen Nutzung der räumlichen Informationen, die in jeder der Positionen dieser Banken enthalten sind, erlaubt es, die Anzahl von für die Spatialisation durchzuführenden Operationen deutlich zu verringern, ohne dadurch die Leistungen zu beeinträchtigen.
  • Weitere Vorteile und Merkmale gehen klarer aus der nachfolgenden Beschreibung hervor, die von den beiliegenden Figuren veranschaulicht wird. Es zeigen:
  • 1 ein allgemeines Schaltbild eines Spatialisationssystems gemäß der Erfindung;
  • 2 ein Funktionsschaltbild eines Ausführungsbeispiels des erfindungsgemäßen Systems;
  • 3 das Schaltbild einer Recheneinheit eines Spatialisationssystems gemäß dem Beispiel der 2;
  • 4 ein Schaltbild des Einsetzens des erfindungsgemäßen Systems in eine modulare Avionik-Einrichtung vom Typ IMA.
  • Die Erfindung wird nachfolgend unter Bezug auf ein audiophones Flugzeugsystem beschrieben, insbesondere eines Kampfflugzeugs, aber selbstverständlich ist sie nicht auf eine solche Anwendung beschränkt und kann ebenso gut bei anderen Fahrzeugtypen (Landfahrzeugen oder Wasserfahrzeugen) wie auch bei ortsfesten Anlagen verwendet werden. Der Benutzer dieses Systems ist im vorliegenden Fall der Pilot eines Flugzeugs, aber es kann gleichzeitig mehrere Benutzer geben, insbesondere, wenn es sich um ein ziviles Transportflugzeug handelt, wobei dann erfindungsgemäß getrennte Vorrichtungen für jeden Benutzer in ausreichender Anzahl vorgesehen sind.
  • 1 stellt ein allgemeines Schaltbild eines Spatialisationssystems von Schallquellen gemäß der Erfindung dar, dessen Aufgabe es ist, einen Hörer Schallsignale (Töne, Sprache, Alarme, usw.) mit Hilfe eines Stereo-Helms hören zu lassen, derart, dass sie vom Hörer so wahrgenommen werden, als ob sie von einem bestimmten Punkt im Raum kämen, wobei dieser Punkt die tatsächliche Position der Schallquelle oder auch eine willkürliche Position sein kann. Zum Beispiel kann die Erfassung eines Lenkflugkörpers durch ein Gegenmaßnahme-Gerät einen Schall erzeugen, dessen Ursprung vom Ursprung des Angriffs zu kommen scheint, was es dem Piloten ermöglicht, schneller zu reagieren. Diese Töne (monophone Schallsignale) werden zum Beispiel in digitaler Form in einer Datenbank "Töne" aufgezeichnet. Außerdem wird die Veränderung der Position der Schallquelle in Abhängigkeit von den Bewegungen des Kopfs des Piloten und den Bewegungen des Flugzeugs berücksichtigt, So muss ein Alarm, der in der Azimutrichtung "3 Uhr" erzeugt wird, sich auf "Mittag" befinden, wenn der Pilot den Kopf um 90° nach rechts dreht.
  • Das erfindungsgemäße System weist hauptsächlich einen Prozessor CPU1 der Datendarstellung und eine Recheneinheit CPU2 auf, die die spatialisierten monophonen Kanäle erzeugt. Der Prozessor der Datendarstellung CPU1 weist insbesondere ein Modul 101 zur Berechnung der relativen Positionen der Quellen bezüglich des Hörers auf, d. h. im kopfbezogenen Koordinatensystem des Hörers. Diese Positionen werden zum Beispiel ausgehend von Informationen berechnet, die von einem Detektor 11 der Haltung des Kopfes des Hörers und von einem Modul 12 der Bestimmung der Position der wiederherzustellenden Quelle empfangen werden (wobei dieses Modul ein Trägheitsnavigationsleitsystem, eine Lokalisierungsvorrichtung wie ein Goniometer, einen Radar usw. aufweisen kann). Der Prozessor CPU1 ist mit einer Datenbank "Filter" 13 verbunden, die eine Gruppe von kopfbezogenen Übertragungsfunktionen (HRTF) aufweist, die dem Hörer eigen sind. Die kopfbezogenen Übertragungsfunktionen werden zum Beispiel bei einer vorhergehenden Lernphase erworben. Sie sind spezifisch für die interaurale Verzögerung des Hörers (Ankunftsverzögerung des Schalls zwischen den zwei Ohren), für physiognomische Eigenschaften jedes Hörers.
  • Es sind diese Übertragungsfunktionen, die dem Hörer das Gefühl der Spatialisation verleihen. Die Recheneinheit CPU2 erzeugt die monophonen Kanäle G und D, die durch Faltung jedes monophonen Schallsignals, das für die zu spatialisierende Quelle charakteristisch und in der Datenbank "Töne" 14 enthalten ist, mit kopfbezogenen Übertragungsfunktionen der Datenbank 13 spatialisiert werden, die an der Position der Quelle im kopfbezogenen Koordinatensystem geschätzt werden.
  • In den Spatialisationssystemen gemäß dem Stand der Technik weist die Recheneinheit ebenso viele Prozessoren auf, wie es zu spatalisierende Schallquellen gibt. Es ist bei diesen Systemen nämlich notwendig, eine räumliche Interpolation der kopfbezogenen Übertragungsfunktionen durchzuführen, um die Übertragungsfunktionen an dem Punkt zu kennen, an dem die Quelle angeordnet sein wird. Diese Architektur erfordert es, die Anzahl von Prozessoren in der Recheneinheit zu vervielfältigen, was mit einem modularen Spatialisationssystem inkompatibel ist, das in eine modulare Avionik-Informationsverarbeitungseinrichtung integriert werden soll.
  • Das erfindungsgemäße Spatialisationssystem weist eine spezifische algorithmische Architektur auf, die es insbesondere ermöglicht, die Anzahl von Prozessoren der Recheneinheit zu verringern. Die Anmelderin hat gezeigt, dass die Recheneinheit CPU2 dann mittels eines programmierbaren Bauteils vom Typ EPLD (Abkürzung für "Electronique programmable par portes logiques" – durch Logiktore programmierbare Elektronik") hergestellt werden kann. Hierzu weist der Prozessor der Datendarstellung des erfindungsgemäßen Systems einen Auswahlmodul 102 der kopfbezogenen Übertragungsfunktionen mit einer variablen Auflösung auf, die an die relative Position der Quelle zum Hörer (oder Position der Quelle im kopfbezogenen Koordinatensystem) angepasst ist. Durch dieses Auswahlmodul ist es nicht mehr notwendig, Interpolationsberechnungen durchzuführen, um die Übertragungsfunktionen an der Stelle zu schätzen, wo sich die Schallquelle befinden soll. Man kann also die Architektur der Recheneinheit beträchtlich vereinfachen, von der ein Ausführungsbeispiel nachfolgend beschrieben wird. Da außerdem das Auswahlmodul eine Auswahl der Auflösung der Übertragungsfunktionen in Abhängigkeit von der relativen Position der Schallquelle bezüglich des Hörers durchführt, kann man mit einer Datenbank 13 der kopfbezogenen Übertragungsfunktionen arbeiten, die eine große Anzahl von Funktionen enthält, die im ganzen Raum gleichmäßig verteilt sind, da nur ein Teil von ihnen ausgewählt wird, um die Faltungsberechnungen durchzuführen. So hat die Anmelderin mit einer Datenbank gearbeitet, in der die Übertragungsfunktionen mit einer Teilung von 7° in Azimutrichtung, von 0 bis 360°, und mit einer Teilung von 10° in Elevationsrichtung, von –70° bis +90°, aufgefangen werden.
  • Außerdem hat die Anmelderin gezeigt, dass aufgrund des Auflösungs-Auswahlmoduls 102 des erfindungsgemäßen Systems die Anzahl von Koeffizienten jeder verwendeten kopfbezogenen Übertragungsfunktion auf 40 begrenzt werden kann (im Vergleich mit 128 oder 256 in den meisten Systemen des Stands der Technik), ohne Verschlechterung der Schall-Spatialisationsergebnisse, was die für die Spatialisationsfunktion notwendige Rechenleistung noch verringert.
  • Die Anmelderin hat so bewiesen, dass die Verwendung der Banken von auf den Kopf des Piloten bezogenen Übertragungsfunktionen, die an die erforderliche Präzision für eine gegebene zu spatialisierende Information angepasst ist, in Verbindung mit einer optimalen Nutzung der in jeder der Positionen dieser Banken enthaltenen räumlichen Informationen, es ermöglicht, die Anzahl von für die Spatialisation durchzuführenden Operationen beträchtlich zu verringern, ohne dadurch die Leistungen zu verschlechtern.
  • Die Recheneinheit CPU2 kann so zum Beispiel auf ein Bauteil vom Typ EPLD reduziert werden, selbst wenn mehrere Quellen spatialisiert werden müssen, was es ermöglicht, sich von den Dialogoprotokollen zwischen den verschiedenen binauralen Prozessoren zu befreien, die notwendig sind, um die Spatialisation mehrerer Schallquellen in Systemen des Stands der Technik zu verarbeiten.
  • Diese Optimierung der Rechenleistung in dem erfindungsgemäßen System ermöglicht es ebenfalls, andere Funktionen einzuführen, die nachfolgend beschrieben werden.
  • 2 stellt ein Funktionsschaltbild eines Ausführungsbeispiels des erfindungsgemäßen Systems dar.
  • Das Spatialisationssystem weist einen Prozessor der Datendarstellung CPU1, der die von jeder Quelle stammende Information empfängt, und eine Recheneinheit CPU2 der rechten und linken spatialisierten monophonen Kanäle auf. Der Prozessor CPU1 weist insbesondere das Modul 101 der Berechnung der relativen Position einer Schallquelle im kopfbezogenen Koordinatensystem des Hörers auf, wobei dieses Modul in Echtzeit Informationen über die Haltung des Kopfes (Position Hörer) und über die Position der wiederherzustellenden Quelle empfängt, wie dies vorher beschrieben wurde. Erfindungsgemäß ermöglicht das Modul 102 der Auflösungs-Auswahl der kopfbezogenen Übertragungsfunktionen HRTF, die in der Datenbank 13 enthalten sind, für jede zu spatialisierende Quelle in Abhängigkeit von der relativen Position der Quelle die Übertragungsfunktionen auszuwählen, die für die Erzeugung der spatialisierten Töne verwendet werden. Im Beispiel der 2 ermöglicht ein Modul 103 der Auswahl der Töne, das mit der Ton-Datenbank 14 verbunden ist, die Auswahl des monophonen Signals der Datenbank, das an die Recheneinheit CPU2 gesendet wird, um mit den angepassten linken und rechten kopfbezogenen Übertragungsfunktionen gefaltet zu werden. Vorteilhafterweise führt das Tonauswahlmodul 103 eine Hierarchisierung zwischen den zu spatialisierenden Schallquellen durch. In Abhängigkeit von den System-Ereignissen und den Verwaltungslogik-Auswahlvorgängen der Plattform wird eine Wahl von benachbarten zu spatialisierenden Tönen durchgeführt. Die Gesamtheit der Informationen, die es ermöglichen, diese Logik der Priorität der räumlichen Darstellung zu definieren, geht über den Hochleistungsbus der EMTI. Das Modul 103 zur Auswahl der Töne ist zum Beispiel mit einem Konfigurations- und Parametrierungsmodul 104 verbunden, in dem dem Hörer eigene Personalisierungskriterien gespeichert sind.
  • Die die Wahl der Übertragungsfunktionen HRTF sowie die zu spatialisierenden Töne betreffenden Daten werden an die Recheneinheit CPU2 mit Hilfe einer Kommunikationsverbindung 15 gesendet. Sie werden vorübergehend in einem Speicher für Filterungen und digitale Tone 201 gespeichert. Der Teil des Speichers, der die digitalen Töne, "Earcons" genannt (Name, der den Tönen verliehen wird, die als Alarm oder Warnung verwendet werden und einen starken signifikanten Wert besitzen), enthält, wird zum Beispiel bei der Initialisierung geladen. Er enthält die Tastproben von Tonsignalen, die vorher in der Ton-Datenbank 14 digitalisiert wurden. Auf Anforderung des Host-CPU1 wird die Spatialisation eines oder mehrerer dieser Signale aktiviert oder ausgesetzt. So lange die Aktivierung dauert, wird das betroffene Signal in Schleife gelesen. Die Faltungsrechnungen werden von einem Rechner 202 durchgeführt, zum Beispiel einem Bauteil vom Typ EPLD, das die spatialisierten Töne erzeugt, wie oben beschrieben wurde.
  • Im Beispiel der 2 bildet eine Prozessor-Schnittstelle 203 einen Speicher, der für die Filterungsoperationen verwendet wird. Sie besteht aus Pufferspeichern für die Töne, die HTRF-Filter sowie für Koeffizienten, die für andere Funktionen wie die sanfte Umschaltung und die Simulation der atmosphärischen Absorption verwendet wird, die nachfolgend beschrieben werden.
  • Mit dem erfindungsgemäßen Spatialisationssystem können zwei Typen von Tönen spatialisiert werden; die Earcons (oder akustisch Alarmsignale) oder Töne, die direkt von Radios (UHF/VHF) kommen, die in 2 "Live-Töne" genannt werden.
  • 3 zeigt das Schaltbild einer Recheneinheit eines Spatialisationssystems gemäß dem Beispiel der 2.
  • Vorteilhafterweise weist das erfindungsgemäße Spatialisationssystem ein Modul 16 zur Eingang/Ausgang-Audioaufbereitung auf, das am Ausgang die linken und rechten spatialisierten monophonen Kanäle empfängt, um sie zu formen, ehe sie an den Hörer gesendet werden. Optional, wenn "Live"-Kommunikationen spatialisiert werden sollen, werden diese Kommunikationen vom Aufbereitungsmodul für ihre Spatialisation durch den Rechner 202 der Recheneinheit geformt. Als Standard wird ein von einer so genannten Live-Quelle kommender Ton immer prioritär gegenüber den zu spatialisierenden Tönen sein.
  • Man hat wieder die Prozessor-Schnittstelle 203, die einen Kurzzeitspeicher für alle verwendeten Parameter bildet.
  • Der Rechner 202 bildet den Kern der Recheneinheit. In Beispiel der 3 weist er ein Modul 204 der Aktivierung und Auswahl von Quellen auf, das die Funktion des Mischens zwischen den Live-Eingängen und den Tönen vom Typ Earcons ausführt.
  • Mit Hilfe des erfindungsgemäßen Systems kann der Rechner 202 die Rechenfunktionen für die n zu spatialisierenden Quellen durchführen. Im Beispiel der 3 können vier Schallquellen spatialisiert werden.
  • Er weist ein Modul 205 der doppelten Spatialisation auf, das die angepassten Übertragungsfunktionen empfängt und die Faltung mit dem zu spatialisierenden monophonen Signal durchführt. Diese Faltung wird im zeitlichen Raum durchgeführt, indem die Verzögerungsfähigkeiten der Filter FIR (Filter mit endlicher Impulsantwort) genutzt werden, die den interauralen Verzögerungen zugeordnet sind.
  • Vorteilhaftweise weist er ein Modul 206 der sanften Umschaltung auf, das mit einem Register 207 der Rechenparametrierung verbunden ist, das die Wahl der Übergangsparameter in Abhängigkeit von der Bewegungsgeschwindigkeit der Quelle und des Kopfs des Hörers optimiert. Das Modul der sanften Umschaltung ermöglicht einen Übergang ohne hörbares Schaltgeräusch beim Übergang von einem Filterpaar zum nächsten. Diese Funktion wird von einer doppelten linearen Gewichtungsrampe durchgeführt. Sie bedingt eine doppelte Faltung: Jede Tastprobe jedes Ausgangskanals resultiert aus der gewichteten Summe von zwei Tastproben, wobei jede durch Faltung des Eingangssignals mit einem Spatialisationsfilter erhalten wird, das ein Element der Bank HRTF ist. In einem gegebenen Zeitpunkt gibt es also im Eingangsspeicher zwei Paare von Spatialisationsfiltern pro zu verarbeitendem Pfad.
  • Vorteilhafterweise weist er ein Modul 208 der Simulation der atmosphärischen Absorption auf. Diese Funktion wird zum Beispiel durch eine lineare Filterung mit 30 Koeffizienten und einer Verstärkung durchgeführt, die an jedem Kanal (links, rechts) jedes Pfads nach Spatialisationsverarbeitung durchgeführt wird. Diese Funktion ermöglicht es dem Hörer, die Tiefenwirkung wahrzunehmen, die für seine funktionsfähige Entscheidung notwendig ist.
  • Schließlich sind ein dynamisches Gewichtungsmodul 209 und ein Summiermodul 210 vorgesehen, um die gewichtete Summe der Kanäle jedes Pfads zu erstellen, um ein einziges stereophones Signal zu liefern, das mit der Ausgangsdynamik kompatibel ist. Der einzige zu dieser stereophonen Wiedergabe gehörende Zwang ist mit der Bandbreite verbunden, die für die Schall-Spatialisation notwendig ist (typischerweise 20 kHz).
  • 4 zeigt schematisch die Hardware-Architektur einer modularen Avionik-Einrichtung 40 zur Verarbeitung der Information vom Typ EMTI. Sie weist einen Hochleistungsbus 41 auf, mit dem die Gesamtheit der Funktionen der Einrichtung verbunden wird, darunter insbesondere das wie oben beschriebene erfindungsgemäße Schall-Spatialisationssystem 42, die anderen Mensch-Maschine-Schnittstellenfunktionen 43, wie zum Beispiel die Sprachsteuerung, die Symbologieverwaltung im normalen Blickfeld, das Helm-Sichtgerät usw., und eine Systemverwaltungskarte 44, die als Funktion die Schnittstellenverbindung mit den anderen Einrichtungen des Flugzeugs hat. Das Schall-Spatialisationssystem 42 gemäß der Erfindung ist über den Prozessor der Datendarstellung CPU1 mit dem Hochleistungsbus verbunden. Es weist außerdem die Recheneinheit CPU2 auf, wie sie oben beschrieben wurde und zum Beispiel von einem Bauteil EPLD gebildet wird, das mit den technischen Anforderungen der EMTI (Anzahl und Typ von Operationen, Speicherbereich, Codierung der Audiotastproben, digitale Bitrate) kompatibel ist.

Claims (17)

  1. System zur Spatialisation (42) mindestens einer Schallquelle, das für jede Quelle zwei spatialisierte monophone Kanäle (G, D) erzeugt, die dazu bestimmt sind, von einem Hörer empfangen zu werden, mit – einer Filterdatenbank (13), die eine Einheit von kopfbezogenen Übertragungsfunktionen (HRTF) aufweist, die dem Hörer eigen sind, – einem Prozessor (CPU1) der Datendarstellung, der die von jeder Quelle stammende Information empfängt und insbesondere ein Modul (101) zur Berechnung der relativen Positionen der Quellen bezüglich des Hörers aufweist, – einer Einheit (CPU2) zur Berechnung der monophonen Kanäle durch Faltung jeder Schallquelle mit kopfbezogenen Übertragungsfunktionen der Bank von geschätzten Daten in der Position der Quelle, wobei das System dadurch gekennzeichnet ist, dass der Prozessor der Datendarstellung ein Modul (102) der Auswahl der kopfbezogenen Übertragungsfunktionen mit einer variablen Auflösung aufweist, die an die relative Position der Quelle zum Hörer angepasst ist.
  2. Spatialisationssystem nach Anspruch 1, dadurch gekennzeichnet, dass die in der Datenbank (13) enthaltenen Übertragungsfunktionen (HRTF) mit einer Teilung von 7° in Azimutrichtung, von 0 bis 360°, und mit einer Teilung von 10° in Elevationsrichtung, von –70° bis +90°, aufgefangen werden.
  3. Spatialisationssystem nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Anzahl von Koeffizienten jeder kopfbezogenen Übertragungsfunktion etwa 40 beträgt.
  4. Spatialisationssystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass es eine Ton-Datenbank (14) aufweist, die ein monophones Schallsignal in digitaler Form enthält, das für jede zu spatialisierende Quelle charakteristisch ist, wobei dieses Schallsignal dazu bestimmt ist, mit den ausgewählten kopfbezogenen Übertragungsfunktionen gefaltet zu werden.
  5. Schall-Spatialisationssystem nach Anspruch 4, dadurch gekennzeichnet, dass der Prozessor (CPU1) der Datendarstellung ein Modul (103) der Auswahl der Töne aufweist, das mit der Ton-Datenbank (14) verbunden ist und eine Hierarchisierung zwischen den nebeneinander liegenden zu spatialisierenden Schallquellen durchführt.
  6. Schall-Spatialisationssystem nach Anspruch 5, dadurch gekennzeichnet, dass der Prozessor (CPU1) der Datendarstellung ein Modul (104) der Konfiguration und der Parametrierung aufweist, mit dem das Modul der Tonauswahl (103) verbunden ist und in dem dem Hörer eigene Personalisierungskriterien gespeichert sind.
  7. Spatialisationssystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass es ein Modul (16) zur Eingang/Ausgang-Audioaufbereitung aufweist, das am Ausgang die spatialisierten monophonen Kanäle (G, D) empfängt, um sie aufzubereiten, ehe sie an den Hörer gesendet werden.
  8. Spatialisationssystem nach Anspruch 7, dadurch gekennzeichnet, dass, wenn "Live"-Kommunikationen spatialisiert werden sollen, diese Kommunikationen vom Aufbereitungsmodul (16) für ihre Spatialisation durch die Recheneinheit (CPU2) aufbereitet werden.
  9. Schall-Spatialisationssystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Recheneinheit (CPU2) eine Prozessor-Schnittstelle (203) in Verbindung mit der Datendarstellungseinheit (CPU1) und einen Rechner (202) zur Erzeugung der spatialisierten monophonen Kanäle (G, D) aufweist.
  10. Schall-Spatialisationssystem nach Anspruch 9, dadurch gekennzeichnet, dass, wenn das System eine Ton-Datenbank (14) aufweist, die Prozessor-Schnittstelle (203) Pufferspeicher für die Übertragungsfunktionen der Filterdatenbank (13) und die Töne der Ton-Datenbank (14) aufweist.
  11. Spatialisationssystem nach einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, dass der Rechner (202) von einem programmierbaren Bauteil vom Typ EPLD realisiert wird.
  12. Spatialisationssystem nach einem der Ansprüche 10 oder 11, dadurch gekennzeichnet, dass der Rechner (202) ein Modul (204) der Aktivierung und der Auswahl von Quellen aufweist, das die Funktion des Mischens zwischen "live"-Kommunikationen und den Tönen der Ton-Datenbank (14) ausführt.
  13. Spatialisationssystem nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass der Rechner (202) ein Modul (205) der doppelten Spatialisation aufweist, das die angepassten Übertragungsfunktionen empfängt und die Faltung mit dem zu spatialisierenden monophonen Signal durchführt.
  14. Spatialisationssystem nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass der Rechner (202) ein Modul (206) der sanften Umschaltung aufweist, die durch eine doppelte lineare Gewichtungsrampe realisiert wird.
  15. Spatialisationssystem nach einem der Ansprüche 9 bis 14, dadurch gekennzeichnet, dass der Rechner (202) ein Modul (208) der Simulation der atmosphärischen Absorption aufweist.
  16. Spatialisationssystem nach einem der Ansprüche 9 bis 15, dadurch gekennzeichnet, dass der Rechner (202) ein dynamisches Gewichtungsmodul (209) und ein Summiermodul (210) aufweist, um die gewichtete Summe der Kanäle jedes Pfads zu erstellen und ein einziges stereophones Signal zu liefern, das mit der Ausgangsdynamik kompatibel ist.
  17. Modulare Luftfahrt-Einrichtung zur Verarbeitung der Information (40), die einen Hochleistungsbus (41) aufweist, mit dem das Schall-Spatialisationssystem (42) gemäß einem der vorhergehenden Ansprüche über den Prozessor der Datenpräsentation (CPU1) verbunden ist.
DE60319886T 2002-07-02 2003-06-27 Tonquelle-raumklangssystem Expired - Fee Related DE60319886T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0208265A FR2842064B1 (fr) 2002-07-02 2002-07-02 Systeme de spatialisation de sources sonores a performances ameliorees
FR0208265 2002-07-02
PCT/FR2003/001998 WO2004006624A1 (fr) 2002-07-02 2003-06-27 Systeme de spatialisation de sources sonores

Publications (2)

Publication Number Publication Date
DE60319886D1 DE60319886D1 (de) 2008-04-30
DE60319886T2 true DE60319886T2 (de) 2009-04-23

Family

ID=29725087

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60319886T Expired - Fee Related DE60319886T2 (de) 2002-07-02 2003-06-27 Tonquelle-raumklangssystem

Country Status (10)

Country Link
US (1) US20050271212A1 (de)
EP (1) EP1658755B1 (de)
AT (1) ATE390029T1 (de)
AU (1) AU2003267499C1 (de)
CA (1) CA2490501A1 (de)
DE (1) DE60319886T2 (de)
ES (1) ES2302936T3 (de)
FR (1) FR2842064B1 (de)
IL (1) IL165911A (de)
WO (1) WO2004006624A1 (de)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2865096B1 (fr) * 2004-01-13 2007-12-28 Cabasse Systeme acoustique pour vehicule et dispositif correspondant
JP2006180467A (ja) * 2004-11-24 2006-07-06 Matsushita Electric Ind Co Ltd 音像定位装置
EP1855474A1 (de) * 2006-05-12 2007-11-14 Sony Deutschland Gmbh Verfahren zur Erzeugung eines interpolierten Bildes zwischen zwei Bildern einer Eingangsbildsequenz
DE102006027673A1 (de) 2006-06-14 2007-12-20 Friedrich-Alexander-Universität Erlangen-Nürnberg Signaltrenner, Verfahren zum Bestimmen von Ausgangssignalen basierend auf Mikrophonsignalen und Computerprogramm
US9031242B2 (en) 2007-11-06 2015-05-12 Starkey Laboratories, Inc. Simulated surround sound hearing aid fitting system
KR20100116223A (ko) * 2008-03-20 2010-10-29 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 음향 디스플레이 장치 및 방법
FR2938396A1 (fr) * 2008-11-07 2010-05-14 Thales Sa Procede et systeme de spatialisation du son par mouvement dynamique de la source
US9264812B2 (en) 2012-06-15 2016-02-16 Kabushiki Kaisha Toshiba Apparatus and method for localizing a sound image, and a non-transitory computer readable medium
GB2574946B (en) * 2015-10-08 2020-04-22 Facebook Inc Binaural synthesis
GB2544458B (en) 2015-10-08 2019-10-02 Facebook Inc Binaural synthesis
US10331750B2 (en) 2016-08-01 2019-06-25 Facebook, Inc. Systems and methods to manage media content items
CN110192396A (zh) * 2016-11-04 2019-08-30 迪拉克研究公司 用于基于头部跟踪数据确定和/或使用音频滤波器的方法和系统
US10394929B2 (en) * 2016-12-20 2019-08-27 Mediatek, Inc. Adaptive execution engine for convolution computing systems
DE112019005822T5 (de) * 2018-11-21 2021-09-09 Google Llc Vorrichtung und verfahren zur bereitstellung einer situationserkennung unter verwendung von positionssensoren und virtueller akustischer modellierung
EP4085660A4 (de) 2019-12-30 2024-05-22 Comhear Inc Verfahren zum bereitstellen eines räumlichen schallfeldes
FR3110762B1 (fr) 2020-05-20 2022-06-24 Thales Sa Dispositif de personnalisation d'un signal audio généré automatiquement par au moins un équipement matériel avionique d'un aéronef
JPWO2022196135A1 (de) * 2021-03-16 2022-09-22
JPWO2022219881A1 (de) * 2021-04-12 2022-10-20

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4583075A (en) * 1980-11-07 1986-04-15 Fairchild Camera And Instrument Corporation Method and apparatus for analyzing an analog-to-digital converter with a nonideal digital-to-analog converter
US4817149A (en) * 1987-01-22 1989-03-28 American Natural Sound Company Three-dimensional auditory display apparatus and method utilizing enhanced bionic emulation of human binaural sound localization
US5645074A (en) * 1994-08-17 1997-07-08 Decibel Instruments, Inc. Intracanal prosthesis for hearing evaluation
US6043676A (en) * 1994-11-04 2000-03-28 Altera Corporation Wide exclusive or and wide-input and for PLDS
JP3258195B2 (ja) * 1995-03-27 2002-02-18 シャープ株式会社 音像定位制御装置
US5742689A (en) * 1996-01-04 1998-04-21 Virtual Listening Systems, Inc. Method and device for processing a multichannel signal for use with a headphone
FR2744277B1 (fr) * 1996-01-26 1998-03-06 Sextant Avionique Procede de reconnaissance vocale en ambiance bruitee, et dispositif de mise en oeuvre
FR2744320B1 (fr) * 1996-01-26 1998-03-06 Sextant Avionique Systeme de prise de son et d'ecoute pour equipement de tete en ambiance bruitee
FR2744871B1 (fr) * 1996-02-13 1998-03-06 Sextant Avionique Systeme de spatialisation sonore, et procede de personnalisation pour sa mise en oeuvre
KR0175515B1 (ko) * 1996-04-15 1999-04-01 김광호 테이블 조사 방식의 스테레오 구현 장치와 방법
JP3976360B2 (ja) * 1996-08-29 2007-09-19 富士通株式会社 立体音響処理装置
DE69733956T2 (de) * 1996-09-27 2006-06-01 Honeywell, Inc., Minneapolis Integration und steuerung von flugzeugdienstleistungssystemen
US6181800B1 (en) * 1997-03-10 2001-01-30 Advanced Micro Devices, Inc. System and method for interactive approximation of a head transfer function
US6173061B1 (en) * 1997-06-23 2001-01-09 Harman International Industries, Inc. Steering of monaural sources of sound using head related transfer functions
FR2765715B1 (fr) * 1997-07-04 1999-09-17 Sextant Avionique Procede de recherche d'un modele de bruit dans des signaux sonores bruites
FR2771542B1 (fr) * 1997-11-21 2000-02-11 Sextant Avionique Procede de filtrage frequentiel applique au debruitage de signaux sonores mettant en oeuvre un filtre de wiener
US6996244B1 (en) * 1998-08-06 2006-02-07 Vulcan Patents Llc Estimation of head-related transfer functions for spatial sound representative
FR2786107B1 (fr) * 1998-11-25 2001-02-16 Sextant Avionique Masque inhalateur d'oxygene avec dispositif de prise de son
GB2374772B (en) * 2001-01-29 2004-12-29 Hewlett Packard Co Audio user interface
US7123728B2 (en) * 2001-08-15 2006-10-17 Apple Computer, Inc. Speaker equalization tool
US20030223602A1 (en) * 2002-06-04 2003-12-04 Elbit Systems Ltd. Method and system for audio imaging

Also Published As

Publication number Publication date
AU2003267499B2 (en) 2008-04-17
EP1658755A1 (de) 2006-05-24
FR2842064B1 (fr) 2004-12-03
AU2003267499C1 (en) 2009-01-15
ES2302936T3 (es) 2008-08-01
DE60319886D1 (de) 2008-04-30
FR2842064A1 (fr) 2004-01-09
IL165911A0 (en) 2006-01-15
EP1658755B1 (de) 2008-03-19
US20050271212A1 (en) 2005-12-08
IL165911A (en) 2010-04-15
ATE390029T1 (de) 2008-04-15
AU2003267499A1 (en) 2004-01-23
CA2490501A1 (fr) 2004-01-15
WO2004006624A1 (fr) 2004-01-15

Similar Documents

Publication Publication Date Title
DE60319886T2 (de) Tonquelle-raumklangssystem
EP1530402B2 (de) Verfahren zur Adaption eines Hörgeräts unter Berücksichtigung der Kopfposition und entsprechendes Hörgerät
DE2524497C3 (de) Verfahren und Schaltungsanordnung zur Sprachsynthese
EP2189010B1 (de) Eine vorrichtung und ein verfahren zur ermittlung eines komponentensignals in hoher genauigkeit
DE112011105241T5 (de) Fernsteuerkommunikationsvorrichtung und Navigationsvorrichtung
DE102010030534A1 (de) Vorrichtung zum Veränderung einer Audio-Szene und Vorrichtung zum Erzeugen einer Richtungsfunktion
DE112020002355T5 (de) Audioverarbeitung
DE112019007677T5 (de) Posenvorhersageverfahren, Modelltrainingsverfahren und Vorrichtung
EP2255359A1 (de) Vorrichtung und verfahren zur akustischen anzeige
WO2015049334A1 (de) Verfahren und vorrichtung zum downmixen eines multikanalsignals und zum upmixen eines downmixsignals
EP0808076B1 (de) Raumklangsystem
DE102016219134B4 (de) Verfahren zum Zugriff auf ein fahrzeugexternes elektronisches Gerät
DE4444304A1 (de) Verfahren zum Erzeugen eines zusammengesetzten Videobildes
DE69632889T2 (de) Wiedergabegerät mit Kopfhörer
EP1850639A1 (de) signalsysteme zur gewinnung multipler audiosignale aus wenigstens einem audiosignal
EP3940692A1 (de) Verfahren zum automatischen lippenlesen mittels einer funktionskomponente und zum bereitstellen der funktionskomponente
DE112019004139T5 (de) Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren und programm
DE102020003668A1 (de) Verfahren zum Anzeigen eines augmentierten Bildes
DE10125229A1 (de) Verfahren und Vorrichtung zur Wiedergabe von Mehrkanaltonsignalen
McKinley Concept and design of an auditory localization cue synthesizer
DE102016125886B4 (de) Vorrichtung und Verfahren zur effizienten Berechnung einer Auralisation
DE19917820C2 (de) Verfahren und Vorrichtung zum mobilen und stationären Navigieren in versprachlichten hypertextorientierten Graphical User Interfaces (GUIs)
DE1925737C3 (de) Lernfähige Signalverarbeitungsanordnung
DE102020129600A1 (de) Verfahren zur steuerung von prozessen mittels einer sprachbefehlseingabe
Morcos et al. Full-Body Haptic and Spatial Audio Cueing Algorithms for Augmented Pilot Perception

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee