DE102021211278B3 - Verfahren zur Bestimmung einer HRTF und Hörgerät - Google Patents

Verfahren zur Bestimmung einer HRTF und Hörgerät Download PDF

Info

Publication number
DE102021211278B3
DE102021211278B3 DE102021211278.1A DE102021211278A DE102021211278B3 DE 102021211278 B3 DE102021211278 B3 DE 102021211278B3 DE 102021211278 A DE102021211278 A DE 102021211278A DE 102021211278 B3 DE102021211278 B3 DE 102021211278B3
Authority
DE
Germany
Prior art keywords
user
hrtf
signal
audio
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102021211278.1A
Other languages
English (en)
Inventor
Julius Krieg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sivantos Pte Ltd
Original Assignee
Sivantos Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sivantos Pte Ltd filed Critical Sivantos Pte Ltd
Priority to DE102021211278.1A priority Critical patent/DE102021211278B3/de
Priority to EP22199852.9A priority patent/EP4164250A1/de
Priority to US17/938,368 priority patent/US20230109140A1/en
Priority to CN202211222505.3A priority patent/CN115942173A/zh
Application granted granted Critical
Publication of DE102021211278B3 publication Critical patent/DE102021211278B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/554Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired using a wireless connection, e.g. between microphone and amplifier or using Tcoils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/30Monitoring or testing of hearing aids, e.g. functioning, settings, battery power
    • H04R25/305Self-monitoring or self-testing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Neurosurgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Es wird ein Verfahren beschrieben, zur Bestimmung einer HRTF (2), wobei eine Audioquelle (6) ein Quell-Audiosignal (8) ausgibt, nämlich sowohl akustisch als ein Schallsignal (22) als auch nicht-akustisch als ein Datensignal (24), wobei das Schallsignal (22) von einem Hörgerät (14) eines Nutzers (4) empfangen wird und von diesem Hörgerät (14) wieder in ein Audiosignal (30) umgewandelt wird, nämlich in ein erstes Audiosignal (30), wobei das Datensignal (24) von dem Hörgerät (14) oder von einem anderen Gerät (6, 32) empfangen wird, welches aus dem Datensignal (24) ein zweites Audiosignal (34) erzeugt, wobei das erste Audiosignal (30) und das zweite Audiosignal (34) miteinander verglichen werden und basierend darauf die HRTF (2) bestimmt wird. Weiter wird ein entsprechendes Hörgerät (14) beschrieben.

Description

  • Die Erfindung betrifft ein Verfahren zur Bestimmung einer HRTF sowie ein Hörgerät, in welchem eine solche HRTF verwendbar ist. HRTF bedeutet „head related transfer function“, d.h. kopfbezogene Übertragungsfunktion.
  • Ein Hörgerät dient allgemein zur Ausgabe von Audiosignalen an einen Nutzer. Hierzu weist das Hörgerät zumindest einen Hörer auf (auch Lautsprecher oder Receiver genannt), mittels welchem das Audiosignal in ein Schallsignal umgewandelt wird. Das Hörgerät wird regelmäßig vom Nutzer im oder am Ohr getragen. In einer möglichen Ausgestaltung dient das Hörgerät speziell zur Versorgung eines hörgeschädigten Nutzers. Hierzu weist das Hörgerät ein Mikrofon auf, welches Schallsignale aus der Umgebung aufnimmt und daraus ein Audiosignal erzeugt, welches ein elektrisches Eingangssignal ist. Dieses wird zur Modifikation einer Signalverarbeitung des Hörgeräts zugeführt. Die Modifikation erfolgt beispielsweise anhand eines individuellen Audiogramms des Nutzers, welcher dem Hörgerät zugeordnet ist, sodass ein individuelles Hördefizit des Nutzers ausgeglichen wird. Die Signalverarbeitung gibt als Ergebnis ein elektrisches Ausgangssignal aus, welches ein modifiziertes Audiosignal ist und welches dann über den Hörer des Hörgeräts wieder in ein Schallsignal umgewandelt wird und an den Nutzer ausgegeben wird.
  • Ein Hörgerät ist entweder monaural und wird dann nur auf einer Seite des Kopfs getragen oder binaural und weist dann zwei Einzelgeräte auf, welche auf unterschiedlichen Seiten des Kopfs getragen werden. Je nach Typ wird das Hörgerät am, im oder hinter dem Ohr getragen oder eine Kombination hiervon. Gängige Typen von Hörgeräten sind z.B. BTE-, RIC- und ITE-Hörgeräte. Diese unterscheiden sich insbesondere in Bauform und Trageweise.
  • Die HRTF ist eine Übertragungsfunktion („transfer function“), welche angibt, wie Schallsignale aus der Umgebung auf dem Weg in den Gehörgang einer Person durch deren Körperform, speziell Kopfform („head related“) modifiziert werden. Die HRTF ist eine Übertragungsfunktion speziell für Schallsignale, d.h. akustische Signale. In einem Hörgerät wird die HRTF geeigneterweise bei der Modifikation in der Signalverarbeitung genutzt und ermöglicht dabei insbesondere die Erhaltung oder Erzeugung von räumlichen Geräuschinformationen (sogenannten „spatial cues“), sodass der Nutzer die entsprechende Geräuschquelle besser lokalisieren kann.
  • Ganz allgemein breitet sich ein Schallsignal von einer Audioquelle ausgehend in der Umgebung aus und gelangt dadurch auch zum Ohr und in den Gehörgang des Nutzers eines Hörgeräts. Der Weg, auf welchem das Schallsignal in den Gehörgang gelangt, wird auch als akustischer Pfad bezeichnet. Die Modifikation des Schallsignals entlang des akustischen Pfads ist abhängig vom Körper des Nutzers, speziell von der jeweiligen Form des Torsos und Kopfes und ganz besonders von der Ohrform, speziell der Form der Ohrmuschel (d.h. Pinna). Konsequenterweise ist die tatsächliche HRTF regelmäßig individuell und für jeden Nutzer anders. Typischerweise wird jedoch eine nicht-individuelle HRTF verwendet, welche z.B. mit Hilfe eines Dummys (z.B. KEMAR) ermittelt wird und dann für eine Vielzahl an mitunter unterschiedlichen Nutzern verwendet wird. Der individuellen Körperform des Nutzers wird damit jedoch regelmäßig nur unzureichend Rechnung getragen, jedenfalls bleiben mögliche Abweichungen zum Dummy unberücksichtigt.
  • Grundsätzlich ist es denkbar, für einen jeweiligen Nutzer eine individuelle HRTF zu bestimmen. Hierzu wird der Nutzer in einem möglichst echofreien Raum platziert und von verschiedenen Seiten mit Schallsignalen beaufschlagt. Hierzu sind mehrere Lautsprecher an festen, vorgegebenen Positionen um den Nutzer herum platziert. An derjenigen Stelle, an welcher später der Hörer des Hörgeräts sitzen soll, d.h. im oder am Ohr des Nutzers, wird ein Mikrofon platziert, welches die Schallsignale empfängt. Durch Vergleichen der gesendeten mit den empfangenen Schallsignalen kann dann die individuelle HRTF bestimmt werden. Dieses Verfahren führt zu einem sehr guten Ergebnis, ist jedoch auch sehr aufwändig.
  • Die US 9 591 427 B1 beschreibt ein Verfahren, welches von einem Smartphone ausgeführt wird, um HRTFs einer Person zu erzeugen, welche Kopfhörer trägt. Mit einer Kamera im Smartphone wird basierend auf einem Bild des Gesichts der Person eine Position des Smartphones in Bezug auf das Gesicht der Person bestimmt. Während sich das Smartphone in einer Hand der Person und nahe dem Gesicht der Person befindet, wird mit dem Smartphone ein Ton erzeugt, wobei auch der Standort des Smartphones in Bezug auf das Gesicht der Person gespeichert wird. Der Ton wird dann mit einem linken Mikrofon der Kopfhörer im linken Ohr der Person und mit einem rechten Mikrofon der Kopfhörer in einem rechten Ohr der Person erfasst. Mit dem Smartphone werden schließlich eine linke und eine rechte HRTF erzeugt.
  • Die EP 3 873 109 A1 beschreibt ein Hörgerätesystem, welches ein Hörgerät und ein tragbares Zusatzgerät umfasst und so ausgelegt ist, dass es eine Kommunikationsverbindung zwischen ihnen herstellt. Der Signalprozessor des Hörgeräts ist so konfiguriert, dass er Zeitsegmente eines elektrischen Eingangssignals und eines elektrischen Hilfseingangssignals empfängt, um eine Schätzung einer akustischen Übertragungsfunktion von einem Mikrofon eines Hilfsgeräts zu einem Mikrofon des Hörgeräts bereitzustellen.
  • Vor diesem Hintergrund ist es eine Aufgabe der Erfindung die HRTF möglichst nutzerspezifisch zu bestimmen und dazu die individuelle Körperform eines Nutzers zu berücksichtigen. Die Bestimmung der HRTF soll dabei möglichst einfach sein und den Nutzer möglichst nicht stören. Hierzu soll ein Verfahren zur Bestimmung der HRTF angegeben werden, zur Verwendung mit einem Hörgerät. Weiter soll ein entsprechendes Hörgerät angegeben werden.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren mit den Merkmalen gemäß Anspruch 1 sowie durch ein Hörgerät mit den Merkmalen gemäß Anspruch 14. Vorteilhafte Ausgestaltungen, Weiterbildungen und Varianten sind Gegenstand der Unteransprüche. Die Ausführungen im Zusammenhang mit dem Verfahren gelten sinngemäß auch für das Hörgerät und umgekehrt. Sofern nachfolgend Schritte des Verfahrens beschrieben sind, ergeben sich zweckmäßige Ausgestaltungen für das Hörgerät insbesondere dadurch, dass dieses eine Steuereinheit aufweist, welche ausgebildet ist, einen oder mehrere dieser Schritte auszuführen.
  • Ein Kerngedanke der vorliegenden Erfindung ist insbesondere, zur Bestimmung einer HRTF für einen bestimmten Nutzer eine Audioquelle zu verwenden, welche ein Audiosignal sowohl akustisch als auch nicht-akustisch ausgeben kann. Die Audioquelle ist vorzugsweise ein Mediengerät, d.h. insbesondere ein Gerät zur Ausgabe und/oder Wiedergabe von Medien (z.B. Audio, Video). Die Audioquelle wird insbesondere wiederkehrend vom Nutzer in dessen Alltag genutzt. Das akustisch ausgegebene Audiosignal propagiert entlang eines akustischen Pfads zum Nutzer und speziell bis zu einem Mikrofon eines Hörgeräts des Nutzers und wird entlang des akustischen Pfads durch die Körperform des Nutzers modifiziert. Diese Modifikation ist definiert durch eine Übertragungsfunktion, welche der tatsächlichen, individuellen HRTF des Nutzers entspricht. Das nicht-akustisch ausgegebene Audiosignal wird hingegen gerade nicht durch diese HRTF modifiziert, sodass sich durch einen Vergleich der beiden unterschiedlich übertragenen Audiosignale die HRTF individuell für den Nutzer bestimmen lässt. Dies wird vorliegend umgesetzt, um dann die HRTF nutzerspezifisch zu bestimmen. Zugleich ist das Verfahren vorteilhaft mit verschiedensten Audioquellen im Alltag des Nutzers und während des bestimmungsgemäßen Gebrauchs des Hörgeräts durchführbar, erfordert also gerade keine spezielle Messumgebung oder Messgerätschaften und stört auch den Nutzer nur minimal oder gar nicht.
  • Das hier beschriebene Verfahren dient allgemein zur Bestimmung einer HRTF (d.h. „head-related transfer function“ oder kopfbezogene Übertragungsfunktion). Die HRTF findet insbesondere Verwendung im bestimmungsgemäßen Betrieb eines Hörgeräts eines Nutzers. Die Bestimmung der HRTF erfolgt vorteilhaft nutzerspezifisch für diesen Nutzer. Unter „Bestimmung“ wird insbesondere verstanden, dass die HRTF ermittelt oder gemessen wird. Die HRTF wird entweder von Grund auf neu bestimmt oder ausgehend von einer Basis-HRTF bestimmt, welche nicht nutzerspezifisch ist und dann im Rahmen des Verfahrens angepasst und vorzugsweise optimiert wird, um im Ergebnis eine nutzerspezifische HRTF zu erhalten. Die HRTF ist beispielsweise eine parametrierte Funktion, mit einem oder mehreren Parametern, welche im Rahmen der Bestimmung der HRTF ausgewählt und/oder angepasst werden.
  • Bei dem Verfahren gibt eine Audioquelle ein Quell-Audiosignal aus, nämlich sowohl akustisch als ein Schallsignal als auch nicht-akustisch als ein Datensignal. Das Quell-Audiosignal ist ein Audiosignal und als solches insbesondere ein elektrisches Signal. Das Quell-Audiosignal wird auch als „ursprüngliches Audiosignal“ bezeichnet. Zur akustischen Ausgabe des Quell-Audiosignals weist die Audioquelle einen Lautsprecher auf, d.h. einen elektroakustischen Wandler, mit welchem das Quell-Audiosignal in ein Schallsignal umgewandelt und ausgegeben wird. Das gleiche Quell-Audiosignal wird auch auf einem weiteren, nicht-akustischen Kanal ausgegeben, nämlich als Datensignal. Zur nicht-akustischen Ausgabe des Quell-Audiosignals weist die Audioquelle einen Datenausgang auf, welcher das Quell-Audiosignal als Datensignal ausgibt und hierzu gegebenenfalls in ein geeignetes Datenformat umwandelt. Vorzugsweise ist der Datenausgang eine Antenne für eine Drahtlosfunkverbindung (z.B. Bluetooth oder WiFi), sodass das Datensignal drahtlos ausgesendet wird. Eine drahtgebundene Aussendung ist aber ebenso denkbar und geeignet, der Datenausgang ist dann ein entsprechender Anschluss (z.B. eine Audiobuchse oder USB-Port). Wesentlich ist zunächst lediglich, dass dasselbe Audiosignal (nämlich das Quell-Audiosignal) auf zwei unterschiedlichen Kanälen ausgegeben wird, nämlich einmal akustisch als Schallsignal und einmal nicht-akustisch (z.B. elektrisch, elektromagnetisch, optisch) als Datensignal.
  • Das Schallsignal wird von dem Hörgerät empfangen und von diesem wieder in ein Audiosignal umgewandelt, nämlich in ein erstes Audiosignal. Dieses erste Audiosignal wird auch als „akustisch übertragenes Audiosignal“ bezeichnet, da es sich aus dem Quell-Audiosignal durch Umwandlung in ein Schallsignal und Rückwandlung aus diesem Schallsignal ergibt. Speziell bei einem Hörgerät zur Versorgung eines hörgeschädigten Nutzers ist das Empfangen von Schallsignalen aus der Umgebung eine originäre Funktion des Hörgeräts.
  • Das Datensignal wird von dem Hörgerät oder von einem anderen Gerät empfangen, welches aus dem Datensignal ein zweites Audiosignal erzeugt, insbesondere mittels eines Dateneingangs, z.B. einer Antenne. Das andere Gerät - sofern vorhanden - ist insbesondere ein Zusatzgerät, welches zum Datenaustausch mit dem Hörgerät verbunden ist, z.B. per Bluetooth oder Wifi. Das andere Gerät ist beispielsweise ein Smartphone. Grundsätzlich ist es auch möglich, dass die Audioquelle selbst das andere Gerät ist, nachfolgend wird jedoch ohne Beschränkung der Allgemeinheit davon ausgegangen, dass dies nicht der Fall ist. Das zweite Audiosignal wird auch als „nicht-akustisch übertragenes Audiosignal“ bezeichnet, da es sich aus dem Quell-Audiosignal ergibt oder zu diesem sogar identisch ist, ohne akustisch übertragen worden zu sein. Abseits davon, dass das Schallsignal und das Datensignal physikalisch gesehen auf zwei unterschiedliche Weisen übertragen werden, werden das Schallsignal und das Datensignal vorzugsweise auch in unterschiedlichen Frequenzbereichen übertragen. So wird das Schallsignal insbesondere im hörbaren Frequenzbereich von 20 Hz bis 20 kHz übertragen, wird das Datensignal in einem Kommunikationsfrequenzbereich z.B. zwischen 1 MHz und 10 GHz übertragen und jedenfalls bei einer Frequenz, welche mehrere Größenordnungen größer ist.
  • Das erste und das zweite Audiosignal sind jeweils eine übertragene (und dadurch gegebenenfalls auch modifizierte) Version des Quell-Audiosignals. Der Vollständigkeit halber wird das Quell-Audiosignal auch als „drittes Audiosignal“ bezeichnet.
  • Das erste Audiosignal und das zweite Audiosignal, d.h. die auf unterschiedlichen Kanälen übertragenen Audiosignale, werden miteinander verglichen und basierend darauf, d.h. basierend auf dem Vergleich, wird die HRTF bestimmt. Dem liegt die Überlegung zugrunde, dass das zweite Audiosignal typischerweise weitgehend mit dem Quell-Audiosignal übereinstimmt und zumindest nicht durch die HRTF beeinflusst worden ist. Im Gegensatz dazu wurde das Schallsignal durch die HRTF modifiziert, sodass sich das erste Audiosignal entsprechend vom Quell-Audiosignal unterscheidet. In erster Näherung gilt demnach folgender Zusammenhang zwischen dem ersten, akustisch übertragenen Audiosignal A1 und dem zweiten, nicht-akustisch übertragenen Audiosignal A2: A2 = HRTF(A1 ). Wie der Vergleich genau durchgeführt wird, ist an sich nebensächlich. Wichtiger ist, dass mit dem Datensignal ein von der HRTF unbeeinflusstes Audiosignal verfügbar ist, welches als Referenzsignal herangezogen wird, um die tatsächliche, nutzerspezifische HRTF zu bestimmen.
  • In einer geeigneten Ausgestaltung wird zum Bestimmen der HRTF das erste Audiosignal als ein Soll-Signal verwendet und das zweite Audiosignal als ein Ist-Signal. Auf diese Weise wird die HRTF abhängig vom Unterschied zwischen dem Schallsignal und dem Datensignal bestimmt (genauer abhängig vom Unterschied zwischen dem ersten und dem zweiten Audiosignal). Wie die HRTF konkret berechnet wird ist zunächst nebensächlich und hängt insbesondere davon ab, wie die HRTF parametrisiert ist, d.h. durch welche Parameter diese definiert ist. Grundsätzlich ist es möglich, mit entsprechender Rechenleistung eine numerische Optimierung durchzuführen. Hierbei werden einzelne Parameter (auch Koeffizienten) so lange variiert, bis eine minimale Abweichung erreicht ist (d.h. ein Minimum oder zumindest ein stabiles und gegebenenfalls nur lokales Minimum). Ein geeigneter Algorithmus zur Optimierung ist beispielsweise LASSO (d.h. „least absolute shrinkage and selection operator“).
  • Die auf die vorgenannte Weise bestimmte HRTF wird insbesondere in dem Hörgerät gespeichert und vorzugsweise von einer Signalverarbeitung des Hörgeräts im Betrieb verwendet, um im Ergebnis das Schallsignal anzupassen, welches vom Hörgerät an den Nutzer ausgegeben wird. Wofür die HRTF konkret verwendet wird, ist hier nicht weiter von Bedeutung. Mögliche Verwendungen der HRTF sind beispielsweise die Erzeugung akustischer Hinweise, die mit räumlicher Information versehen werden und zur Navigation eines gehenden Benutzers geeignet sind, das Hinzufügen einer räumlichen Information zu einem Streamingsignal, sodass sich dieses für den Nutzer so anhört, als ob es von einer Audioquelle, z.B. einem Fernseher aus einer bestimmen Raumrichtung kommt. Eine weitere beispielhafte Verwendung der HRTF sind virtuelle Bedienelemente, bei welchen beispielsweise eine Position eines Bedienelements, z.B. eines Schiebereglers, akustisch mit einem räumlichen Effekt dargestellt wird (z.B. Betonung der rechten oder linken Seite je nach Stellung des Bedienelements). Speziell im Zusammenhang mit „in-ear“ Kopfhörern ist die Verwendung einer HRTF zur Modifizierung der Audioausgabe vorteilhaft.
  • In einer konkreten, geeigneten Ausgestaltung werden zur Bestimmung der HRTF aus dem ersten und dem zweiten Audiosignal jeweils lediglich Ausschnitte, sogenannten Samples, entnommen und als ein Datensatz gespeichert. Die beiden Ausschnitte (ein Ausschnitt aus dem ersten Audiosignal und ein Ausschnitt aus dem zweiten Audiosignal) eines jeweiligen Datensatzes stammen vorzugsweise aus demselben Zeitintervall oder weisen einen übereinstimmenden Zeitstempel auf. Damit ist sichergestellt, dass durch einen Vergleich der beiden Abschnitte tatsächlich auch korrekt die HRTF bestimmt wird. Typischerweise wird eine Vielzahl an solchen Datensätzen aufgenommen und gespeichert und zur Bestimmung der HRTF ausgewertet. Dies erfolgt entweder auf dem Hörgerät, auf einem Zusatzgerät wie beschrieben oder auf einem separaten Computer, z.B. einem Server.
  • Eine HRTF ist wie bereits angedeutet vorzugsweise parametriert, d.h. eine Funktion mit einer Anzahl an Parametern, welche je nach Nutzer variieren können. Bei der Bestimmung der HRTF werden insbesondere diese Parameter optimiert und somit nutzerspezifisch angepasst. Die Bestimmung der HRTF erfolgt vorzugsweise fortlaufend, sodass die verwendete HRTF sich mit der Zeit immer weiter der tatsächlichen, individuellen HRTF annähert. Das Verfahren ist insofern dann iterativ. Dadurch werden zudem vorteilhaft auch Veränderungen in der Körperform des Nutzers berücksichtigt.
  • Ohne Beschränkung der Allgemeinheit wird vorliegend davon ausgegangen, dass das Hörgerät ein Hörgerät zur Versorgung eines hörgeschädigten Nutzers ist. Ebenso ist die Erfindung aber auch anwendbar auf andere Hörgeräte, wie z.B. einen Kopfhörer, welcher zusätzlich ein oder mehrere Mikrofone aufweist. Ein Hörgerät zur Versorgung eines hörgeschädigten Nutzers weist allgemein einen Eingangswandler, eine Signalverarbeitung und einen Ausgangswandler auf. Der Eingangswandler ist hier ein Mikrofon und dient zur Aufnahme von Schallsignalen aus der Umgebung, d.h. hier auch zum Empfangen des Schallsignals, welches von der Audioquelle ausgesendet wird. Der Ausgangswandler ist üblicherweise ein Hörer, welcher auch als Lautsprecher oder Receiver bezeichnet wird. Vorliegend wird ohne Beschränkung der Allgemeinheit von einem Hörgerät mit einem Hörer ausgegangen, ebenfalls geeignet sind aber auch andere Ausgangswandler zur Ausgabe an den Nutzer. Das Hörgerät ist regelmäßig einem einzelnen Nutzer zugeordnet und wird lediglich von diesem verwendet. Der Eingangswandler erzeugt allgemein ein Eingangssignal, welches der Signalverarbeitung zugeführt wird. Vorliegend erzeugt der Eingangswandler speziell auch das erste Audiosignal, welches entsprechend ein Eingangssignal ist. Die Signalverarbeitung modifiziert das Eingangssignal und erzeugt dadurch ein Ausgangssignal, welches somit ein modifiziertes Eingangssignal ist. Zum Ausgleich eines Hörverlusts wird das Eingangssignal beispielsweise gemäß einem Audiogramm des Nutzers mit einem frequenzabhängigen Verstärkungsfaktor verstärkt. Alternativ oder zusätzlich wird das Eingangssignal abhängig von der HRTF modifiziert. Das Ausgangssignal wird schließlich mittels des Ausgangswandlers an den Nutzer ausgegeben.
  • Die zuvor beschriebene Aufnahme und Wiederausgabe eines Schallsignals mit Modifikation auf elektrischer Ebene ist der Regelfall im Betrieb des Hörgeräts, dies wird auch als „Normalbetrieb“ des Hörgeräts bezeichnet. Zusätzlich zum Normalbetrieb weist das hier beschriebene Hörgerät vorzugsweise noch einen Streamingbetrieb auf, in welchem die Ausgabe an den Nutzer auf dem Datensignal basiert, welches von der Audioquelle ausgesendet wird. Der Streamingbetrieb hat den Vorteil, dass auf eine Umwandlung in und Rückwandlung aus einem Schallsignal verzichtet werden kann und vorzugsweise auch wird und ein Audiosignal von der Audioquelle verlustfrei und unbeeinflusst zum Nutzer übertragen wird. Der Streamingbetrieb wird beispielsweise verwendet, um ein Audiosignal von einem TV-Gerät, Computer oder Smartphone und allgemein von einer Audioquelle zum Hörgerät zu übertragen. Das Hörgerät weist entsprechend einen Dateneingang auf, welcher komplementär zum Datenausgang der Audioquelle ausgebildet ist, vorzugsweise ebenfalls als eine Antenne. Die Ausführungen zum Datenausgang gelten analog auch für den Dateneingang und umgekehrt. Geeigneterweise ist das Hörgerät derart ausgebildet, dass der Nutzer zwischen dem Normalbetrieb und dem Streamingbetrieb umschalten kann.
  • Bei einem Kopfhörer oder Ähnlichem entfällt der oben beschriebene Normalbetrieb gegebenenfalls und der Streamingbetrieb ist der Regelfall.
  • Vorliegend werden nun vorteilhafterweise die Funktionalitäten des Normalbetriebs und des Streamingbetriebs vereint, um die HRTF zu bestimmen. Das Hörgerät empfängt einerseits mittels des Mikrofons das Schallsignal von der Audioquelle und nutzt somit die Funktionalität des Normalbetriebs. Andererseits empfängt das Hörgerät das Datensignal von der Audioquelle und nutzt somit die Funktionalität des Streamingbetriebs. Welches der beiden Audiosignale (erstes und zweites Audiosignal) dann tatsächlich auch wieder über den Hörer an den Nutzer ausgegeben wird, ist nicht von Bedeutung und bleibt zweckmäßigerweise dem Nutzer überlassen. Relevant für das hier beschriebene Verfahren ist zunächst nur, dass beide Audiosignale vorliegen, um basierend darauf die HRTF zu bestimmen.
  • Zudem ist es für das hier beschriebene Verfahren nicht zwingend erforderlich, dass das Hörgerät einen Streamingbetrieb aufweist oder generell das Datensignal empfängt, dieses kann auch von einem anderen Gerät empfangen werden. Das erste und das zweite Audiosignal müssen lediglich auf irgendeinem Gerät zusammengeführt werden, um dort verglichen zu werden und darauf basierend die HRTF zu bestimmen. Grundsätzlich ist das Hörgerät hierfür geeignet, ebenso geeignet ist aber auch ein Computer, speziell ein Server, welcher sich gegenüber dem Hörgerät regelmäßig durch eine deutlich höhere Rechenleistung auszeichnet. Denkbar ist auch, dass das Hörgerät zwar das Datensignal empfängt, dass aber die Bestimmung der HRTF nicht vom Hörgerät durchgeführt wird, sondern z.B. vom Smartphone oder Server, an welches beziehungsweise welchen das Hörgerät die Audiosignale oder die entsprechenden Datensätze überträgt.
  • Wichtig für die korrekte Bestimmung der HRTF ist jedoch, dass das Hörgerät das Schallsignal empfängt, denn das Hörgerät wird vom Nutzer getragen, während jedes andere Gerät regelmäßig abseits des Nutzers positioniert ist und daher nicht geeignet ist, ein Schallsignal zu empfangen, welches entlang des akustischen Pfads zum Ohr des Nutzers propagiert. In einer bevorzugten Ausgestaltung empfängt entsprechend das Hörgerät das Schallsignal mit einem Mikrofon, welches ein Teil des Hörgeräts ist. Gegebenenfalls weist das Hörgerät sogar mehrere Mikrofone auf, mit welchen das Schallsignal empfangen und das erste Audiosignal erzeugt wird. Das Hörgerät ist zweckmäßigerweise derart ausgebildet, dass in getragenem Zustand das Mikrofon in oder an einem Ohr des Nutzers positioniert ist. Insbesondere ist das Mikrofon somit hinter dem Ohr, im Ohr oder im Gehörgang des Nutzers positioniert. Die genaue Position des Mikrofons hängt vom Typ des Hörgeräts ab. Bei einem BTE-Gerät ist das Mikrofon hinter dem Ohr positioniert, bei einem RIC-Gerät im Gehörgang und bei einem ITE-Gerät im Ohr, noch vor dem Gehörgang. Gegebenenfalls wird demnach nicht der gesamte akustische Pfad bis in den Gehörgang hinein berücksichtigt und die HRTF entsprechend nur für einen Teil des akustischen Pfads bestimmt, d.h. lediglich für einen einzelnen oder mehrere, jedoch nicht alle Abschnitte des akustischen Pfads.
  • Das Hörgerät ist entweder monaural und wird dann nur auf einer Seite (links oder rechts) des Kopfs getragen oder binaural und weist dann zwei Einzelgeräte auf, welche auf unterschiedlichen Seiten des Kopfs getragen werden (d.h. links und rechts). Bei einem binauralen Hörgerät weisen beide Einzelgeräte jeweils ein oder mehrere Mikrofone auf, zum Empfangen von Schallsignalen.
  • Vorzugsweise wird bei der Bestimmung der HRTF auch eine räumliche Situation bezüglich des Nutzers. Diese räumliche Situation ist vorzugsweise ausgewählt aus einer Menge an räumlichen Situationen, umfassend und insbesondere lediglich bestehend aus: eine Position des Nutzers relativ zur Audioquelle, eine Entfernung des Nutzers relativ zur Audioquelle, eine Orientierung des Nutzers relativ zur Audioquelle, eine Orientierung des Kopfes des Nutzers relativ zu dessen Torso, eine Körperhaltung des Nutzers. Dabei ist die Orientierung des Kopfes des Nutzers relativ zu dessen Torso eine spezielle Körperhaltung, weitere Körperhaltungen sind z.B. Sitzen, Liegen, Stehen. Die Orientierung des Kopfes relativ zu Torso ist vorzugsweise eine Kopfdrehung um die longitudinale Körperachse des Nutzers, eine Kopfneigung um die Transversalachse des Nutzers (d.h. ein Nicken nach vorn/hinten) oder eine Lateralflexion (d.h. Kopfneigung zu einer Seite).
  • In einer geeigneten Ausgestaltung wird dann eine entsprechende räumliche Situation ermittelt und bei der Bestimmung der HRTF berücksichtigt. Dem liegt die Überlegung zugrunde, dass der akustische Pfad regelmäßig davon abhängt, wie der Körper des Nutzers relativ zur Audioquelle ausgerichtet ist und/oder welche Körperhaltung der Nutzer einnimmt, d.h. ob das Schallsignal den Nutzer z.B. von vorn, von hinten oder von der Seite erreicht und wie dessen eigener Körper, speziell Torso, das Schallsignal abschattet. Entsprechend ist die Modifikation des Schallsignals bei dessen Propagation zum Ohr des Nutzers abhängig von der relativen räumlichen Beziehung zwischen Nutzer und Audioquelle sowie der Körperhaltung des Nutzers, sodass auch die HRTF allgemein situationsabhängig und speziell richtungsabhängig und körperhaltungsabhängig ist. Für eine möglichst optimale Bestimmung der HRTF ist es entsprechend vorteilhaft, nicht nur allgemein möglichst viele Datensätze aufzunehmen, sondern auch, Datensätze zu möglichst vielen räumlichen Situationen aufzunehmen, d.h. in möglichst vielen unterschiedlichen, relativen räumlichen Beziehungen des Nutzers zur Audioquelle und/oder für möglichst viele Körperhaltungen des Nutzers. Dadurch wird dann die HRTF entsprechend vorteilhaft situationsabhängig und speziell richtungsabhängig und/oder körperhaltungsabhängig bestimmt.
  • Wie genau die räumliche Situation bestimmt wird, ist vorliegend von untergeordneter Bedeutung und daher hier nicht weiter Gegenstand, grundsätzlich ist jegliches hierzu bekannte Verfahren geeignet. In einer geeigneten Ausgestaltung ist das Hörgerät ein binaurales Hörgerät und empfängt entsprechend das Schallsignal der Audioquelle auf beiden Seiten. Die Orientierung des Nutzers relativ zur Audioquelle wird dann beispielsweise anhand eines Zeitversatzes oder Amplitudenunterschieds des auf den beiden Seiten empfangenen Schallsignals ermittelt. Denkbar und geeignet ist auch eine Verfolgung (d.h. „tracking“) des Nutzers z.B. mittels einer Kamera der Audioquelle oder eines Beacon in einem vom Nutzer getragenen Zusatzgerät. Geeignet ist auch eine Ausgestaltung, bei welcher jeweils ein absoluter Standort der Audioquelle und des Hörgeräts bestimmt werden und die relative räumliche Beziehung dann durch Differenzbildung der Standorte bestimmt wird. Die Orientierung des Kopfes wird beispielsweise mittels einer Videobeobachtung des Nutzers ermittelt, mittels eines Gyroskops oder Magnetometers insbesondere des Hörgeräts oder es wird angenommen, dass die Orientierung „geradeausblickend“ angenommen, wenn längere Zeit (z.B. wenigstens 1 min) keine Änderung der Orientierung erfolgt ist.
  • Geeigneterweise werden zur Bestimmung der HRTF ein jeweiliger Ausschnitt aus dem ersten und dem zweiten Audiosignal und eine räumliche Situation bezüglich des Nutzers gemeinsam als ein Datensatz gespeichert. Ein jeweiliger Datensatz enthält dann nicht lediglich je ein Sample der beiden Audiosignale, sondern zusätzlich auch eine Information über die relative räumliche Beziehung des Nutzers zur Audioquelle und/oder die Körperhaltung des Nutzers zum Zeitpunkt dieser Samples.
  • Eine Erzeugung von Datensätzen ist auf verschiedenste Weisen möglich, insbesondere mit unterschiedlichem Grad an Beteiligung des Nutzers und mit oder ohne eine spezielle Ansteuerung der Audioquelle.
  • Zunächst ist eine Ausgestaltung geeignet, bei welcher fortlaufend Datensätze erzeugt werden, ohne dass der Nutzer überhaupt aktiv werden muss oder die Audioquelle speziell gesteuert werden muss. Das Verfahren wird somit bei bestimmungsgemäßer Verwendung sozusagen im Hintergrund ausgeführt und stört den Nutzer somit nicht.
  • In einer geeigneten Ausgestaltung wird die Audioquelle derart gesteuert, dass diese bei Vorliegen einer räumlichen Situation bezüglich des Nutzers, für welche noch keine Mindestanzahl an Datensätzen vorhanden ist, ein Quell-Audiosignal ausgibt, um für diese räumliche Situation einen Datensatz zu erzeugen. In dieser Ausgestaltung wird die Audioquelle demnach speziell gesteuert, um gezielt für solche räumlichen Situationen einen Datensatz zu erzeugen, für welche noch nicht ausreichend viele Datensätze für eine hinreichend gute Bestimmung der HRTF vorhanden sind. Wie viele Datensätze tatsächlich für eine jeweilige räumliche Situation benötigt werden, wie groß also die Mindestanzahl ist, ist zunächst nicht von Bedeutung. Beispielsweise beträgt die Mindestanzahl lediglich 1 oder alternativ 10, 100 oder 1000. Auch in dieser Ausgestaltung ist eine Beteiligung des Nutzers nicht erforderlich, es erfolgt jedoch eine spezielle Ansteuerung der Audioquelle, um gezielt möglichst sinnvolle Datensätze zu erzeugen. Das Hörgerät oder ein anderes Gerät überprüft beispielsweise, welche Position, Entfernung, Orientierung und/oder Körperhaltung aktuell vorliegt und ob die Anzahl an bereits vorhandenen Datensätzen wenigstens der Mindestanzahl entspricht. Ist dies nicht der Fall wird die Audioquelle entsprechend angesteuert, um in dieser Situation das Quell-Audiosignal sowohl als Schallsignal als auch als Datensignal auszugeben, sodass dann ein Datensatz für die aktuelle Position, Entfernung, Orientierung und/oder Körperhaltung erzeugt wird.
  • In einer geeigneten Ausgestaltung wird eine Anweisung an den Nutzer ausgegeben, eine oder mehrere räumliche Situationen herzustellen, in welchen dann die Audioquelle jeweils ein Quell-Audiosignal ausgibt, um für diese räumlichen Situationen jeweils einen Datensatz zu erzeugen. Die Anweisung wird beispielsweise von dem Hörgerät, der Audioquelle oder einem anderen Gerät ausgegeben. Die Anweisung ist beispielsweise akustisch oder optisch. Ob der Nutzer der Anweisung tatsächlich folgt, bleibt ihm oder ihr selbst überlassen. Jedenfalls besteht aber die Wahrscheinlichkeit, dass der Nutzer auf die Anweisung hin die geforderte räumliche Situation herstellt, sodass für diese dann gezielt ein Datensatz erzeugt werden kann und auch wird. Das Verfahren nutzt dann eine Beteiligung des Nutzers, eine spezielle Ansteuerung der Audioquelle ist jedoch nicht zwingend erforderlich.
  • Das Hörgerät weist einen Testmodus auf und gibt in diesem an den Nutzer ein Ausgangssignal aus, welches eine räumliche Geräuschinformation (d.h. „spatial cue“, z.B. ein räumlich lokalisiertes Geräusch) aufweist, um den Nutzer dazu zu veranlassen sich in eine vorgesehene Richtung zu bewegen oder zu orientieren (insgesamt oder nur mit dem Kopf), nämlich insbesondere dorthin, wo das Geräusch vermeintlich herkommt. Weiter wird dann bestimmt, in welche tatsächliche Richtung sich der Nutzer bewegt oder orientiert und diese wird mit der vorgesehenen Richtung verglichen, um einen Anpassungsgrad der HRTF an den Nutzer zu ermitteln. Der Anpassungsgrad gibt insbesondere an, wie gut die aktuell bestimmte HRTF mit der tatsächlichen HRTF übereinstimmt. Dies wird im Testmodus dadurch überprüft, dass mittels der aktuell bestimmten HRTF das Ausgangssignal erzeugt wird. Weicht die aktuell bestimmte HRTF von der tatsächlichen HRTF ab, so wird der Nutzer das Geräusch fälschlicherweise in einer anderen Richtung verorten als wenn tatsächlich ein Geräusch aus der vorgesehenen Richtung käme und durch die tatsächliche HRTF modifiziert würde. Der Testmodus ermöglicht somit eine Überprüfung der bisher bestimmten HRTF und auch eine Ermittlung, wie gut diese mit der tatsächlichen HRTF für den Nutzer übereinstimmt. In einer beispielhaften Ausgestaltung wird der Nutzer dazu veranlasst, bei neutraler Pupillenstellung in eine bestimmte Richtung zu blicken. Die hierdurch dann gewonnen Datensätze werden zweckmäßigerweise zum Test des Anpassungsgrads genutzt. Dieses Vorgehen ist weniger fordernd für den Nutzer, als diesen sich durch den Raum bewegen zu lassen. Zusätzlich werden hiermit zweckmäßigerweise noch Datensätze zu fehlenden räumlichen Situationen hinsichtlich der Orientierung des Kopfes relativ zum Torso aufgenommen.
  • Die HRTF ist grundsätzlich selbst zerlegbar in mehrere einzelne Übertragungsfunktionen, welche einzelne Abschnitte des akustischen Pfads modellieren und welche dann zusammengefügt die HRTF für den gesamten akustischen Pfad ergeben. Unter Umständen ist es nicht erforderlich oder sogar unmöglich, die HRTF für den gesamten akustischen Pfad auf die beschriebene Weise zu bestimmen, sondern nur für einen oder mehrere einzelne Abschnitte, speziell diejenigen Abschnitte, welche dem Nutzer am nächsten sind. Die übrigen Abschnitte werden dann insbesondere mittels einer jeweiligen Standardfunktion modelliert.
  • In einer zweckmäßigen Ausgestaltung erfolgt die Bestimmung der HRTF ausgehend von einer Basis-HRTF, welche eine Übertragungsfunktion für lediglich einen ersten Abschnitt eines akustischen Pfads von der Audioquelle zum Gehörgang des Nutzers ist, sodass die HRTF überwiegend für einen anderen, zweiten Abschnitt des akustischen Pfads bestimmt wird. Dem liegt die Überlegung zugrunde, dass die HRTF regelmäßig am Stärksten durch das Ohr des Nutzers und speziell dessen Pinna definiert ist und demgegenüber weniger durch den Torso des Nutzers oder dessen allgemeine Kopfform. Daher enthält der zweite Abschnitt insbesondere denjenigen Teil des akustischen Pfads, welcher die Pinna enthält. Die Basis-HRTF ist dann beispielsweise eine HRTF eines Dummys und berücksichtigt vornehmlich die Körperform und allgemeine Kopfform des Nutzers. Diese Basis-HRTF wird dann durch das vorliegende Verfahren dahingehend optimiert, dass die spezielle Form der Pinna des Nutzers berücksichtigt wird, sodass insgesamt die HRTF nutzerspezifisch bestimmt wird. Hierfür ist das Hörgerät zweckmäßigerweise derart ausgebildet, dass dessen Mikrofon in getragenem Zustand im Gehörgang oder im Ohr des Nutzers positioniert ist und nicht lediglich hinter dem Ohr.
  • Wie bereits angedeutet, wird die HRTF nicht zwingend von dem Hörgerät bestimmt. Bevorzugterweise wird die HRTF von einem Computer bestimmt, insbesondere einem Server, welcher separat von dem Hörgerät und der Audioquelle ausgebildet ist. Nachfolgend wird ohne Beschränkung der Allgemeinheit von einem Server als Computer ausgegangen. Wie genau die Datensätze hierfür an den Server gelangen ist nicht weiter relevant und hängt auch von der gewählten Ausgestaltung des Verfahrens, dem Hörgerät, der Audioquelle und anderen gegebenenfalls beteiligten Geräten ab. Beispielsweise sendet das Hörgerät das erste, akustisch übertragene Audiosignal oder Ausschnitte hiervon an den Server, ebenso wird das zweite, akustisch übertragene Audiosignal oder Ausschnitte hiervon von dem Hörgerät oder von einem anderen Gerät, z.B. einem Smartphone oder der Audioquelle, an den Server gesendet. Der Server sendet dann wiederum zweckmäßigerweise die HRTF an das Hörgerät.
  • Bevorzugterweise ist die Audioquelle ein stationäres Gerät. Unter „stationär“ wird insbesondere unbewegt verstanden, aber nicht zwingend generell unbeweglich. Mit anderen Worten: die Audioquelle verharrt typischerweise an derselben Stelle in einer Umgebung, z.B. einem Raum, während der Nutzer sich relativ zur Audioquelle bewegt und sich allgemein die räumliche Situation bezüglich des Nutzers ändert. Ein stationäres Gerät hat insbesondere den Vorteil, dass jegliche Bewegung des Nutzers automatisch eine Änderung der räumlichen Situation erzeugt, sodass entsprechend Datensätze zu verschiedenen räumlichen Situationen auf einfache Weise erzeugbar sind.
  • Besonders bevorzugt ist eine Ausgestaltung, bei welcher die Audioquelle ein TV-Gerät ist, auch als Fernseher bezeichnet. Ein TV-Gerät ist insbesondere ein stationäres Gerät. Die Verwendung eines TV-Geräts als Audioquelle in einem Verfahren wie hier beschrieben hat verschiedene Vorteile. Zum einen weist ein TV-Gerät typischerweise einen oder mehrere Lautsprecher auf, welche eine hohe Ausgabequalität aufweisen und dadurch ein besonders breites Frequenzspektrum abdecken und das Quell-Audiosignal auch besonders originalgetreu ausgeben. Dies gilt besonders im Vergleich zu einem Smartphone. Außerdem hält sich der Nutzer relativ zum TV-Gerät typischerweise in einer Entfernung von wenigen Metern auf, welche ähnlich ist zur Entfernung bei der Bestimmung einer HRTF in einem echofreien Raum wie eingangs beschrieben und welche optimal ist zur Bestimmung der HRTF. Außerdem ist das TV-Gerät in der Umgebung typischerweise immer an derselben Position platziert, sodass zusätzliche raumakustische Effekte bei der Bestimmung der HRTF besser berücksichtigt werden können, insbesondere entlang eines Abschnitts des akustischen Pfads, welcher nicht durch die HRTF abgebildet wird. Schließlich ist auch zu erwarten, dass Schallsignale von einem TV-Gerät keine sensiblen, persönlichen Daten enthalten, anders als z.B. bei Schallsignalen von einem Smartphone.
  • Vorzugsweise wird das hier beschriebene Verfahren durchgeführt, während der Nutzer fernsieht, insbesondere mit der Audioquelle, d.h. während die Audioquelle, welche ein TV-Gerät ist, eingeschaltet ist und sich der Nutzer in dessen näherer Umgebung aufhält (z.B. innerhalb von weniger als 5 m entfernt von der Audioquelle). Dabei ist nicht zwingend erforderlich, dass der Nutzer dem von dem TV-Gerät ausgesendeten Inhalten folgt oder spezielle Beachtung schenkt. Die Durchführung des Verfahrens, während der Nutzer fernsieht, hat diverse Vorteile.
  • Einerseits ist zu erwarten, dass der Nutzer über einen längeren Zeitraum von z.B. 1 bis 2 Stunden fernsieht, sodass entsprechend besonders viele Datensätze aufgenommen werden. Auch ist zu erwarten, dass der Nutzer wiederholt fernsieht, sodass wiederkehrend entsprechend viele Datensätze aufgenommen werden. Weiter finden während des Fernsehens typischerweise keine persönlichen Gespräche des Nutzers mit anderen Personen statt, sodass sichergestellt ist, dass keine sensiblen, persönlichen Daten aufgezeichnet werden. Falls doch, werden diese zweckmäßigerweise verworfen. Ein persönliches Gespräch wird vom Hörgerät beispielsweise dadurch erkannt, dass das zugehörige Schallsignal aus einer anderen Richtung eintrifft, als das Schallsignal von der Audioquelle. Auch andere Störgeräusch sind während des Fernsehens typischerweise nicht vorhanden, da andere Geräuschquellen vom Nutzer regelmäßig ausgeschaltet werden, sodass insgesamt Datensätze mit sehr guter Qualität erzeugt werden.
  • Die Verwendung eines TV-Geräts ist außerdem vorteilhaft, da dieses zwar regelmäßig mehrere Lautsprecher aufweist, dabei jedoch auch derart betreibbar ist, dass lediglich ein einzelner Lautsprecher zur Ausgabe von Schallsignalen verwendet wird. Dadurch wird die Bestimmung der HRTF deutlich genauer, da nun lediglich eine einzelne Schallquelle vorhanden ist und der akustische Pfad somit sehr genau definiert ist. Dies gilt auch allgemein für alle Audioquellen mit mehreren Lautsprechern. In einer vorteilhaften Ausgestaltung wird daher die Audioquelle derart gesteuert, dass diese das Audiosignal als Schallsignal über lediglich einen einzelnen Lautsprecher ausgibt. Die Ausgabe über lediglich einen Lautsprecher ist für den Nutzer zumindest insofern nicht einschränkend, als dass dieser das Quell-Audiosignal vorteilhaft gegebenenfalls auch mittels des Streamingbetriebs als Datensignal empfängt und entsprechend nicht auf die Schallausgabe der Audioquelle angewiesen ist. Vorzugsweise wird das Hörgerät während des Verfahrens demnach im Streamingbetrieb betrieben. Sofern die zusätzliche Schallausgabe als störend empfunden wird, wird das Schallsignal beispielsweise durch das Hörgerät mittels einer ANC-Einheit herausgefiltert (ANC bedeutet „active noise cancelling“, d.h. aktive Geräuschunterdrückung).
  • In einer zweckmäßigen Ausgestaltung wird ein Akustikparameter der Umgebung bestimmt, um insbesondere einen oder mehrere raumakustische Effekte zu quantifizieren, und bei der Bestimmung der HRTF berücksichtigt. Raumakustische Effekte sind beispielsweise Reflektionen des Schallsignals an Wänden oder Gegenständen in der Umgebung oder ein Nachhallen, speziell in einem Raum. Entsprechend sind Akustikparameter der Umgebung eine Zeit oder eine Amplitude, welche eine Impulsantwort der Umgebung, eine frühe Reflektion (sogenannte „early reflection“) der Umgebung oder einen Nachhall („reverberation“) der Umgebung quantifizieren. Der Akustikparameter wird beispielsweise mit dem Hörgerät bestimmt oder mit einem anderen Gerät. Zweckmäßig ist es auch, zur Bestimmung des Akustikparameters in der Umgebung ein zusätzliches Mikrofon im zu Raum platzieren.
  • Ein erfindungsgemäßes Hörgerät weist eine Steuereinheit auf, welche ausgebildet ist zur Durchführung eines Verfahrens wie vorstehend beschrieben, gegebenenfalls in Kombination mit einer Audioquelle und/oder einem anderen Gerät wie beschrieben.
  • Die Aufgabe wird weiterhin insbesondere gelöst durch einen Computer und/oder ein anderes Gerät, z.B. Smartphone wie oben beschrieben.
  • Nachfolgend werden Ausführungsbeispiele der Erfindung anhand einer Zeichnung näher erläutert. Darin zeigen jeweils schematisch:
    • 1 eine Umgebung mit einer Audioquelle und einem Nutzer mit Hörgerät,
    • 2 ein akustischer Pfad,
    • 3 ein Hörgerät,
    • 4 die Bestimmung einer HRTF aus mehrere Datensätzen,
    • 5 eine Audioquelle, ein Hörgerät und ein Computer.
  • In 1 ist ein Kerngedanke der vorliegenden Erfindung illustriert, nämlich zur Bestimmung einer HRTF 2 für einen bestimmten Nutzer 4 eine Audioquelle 6 zu verwenden, welche ein Quell-Audiosignal 8 sowohl akustisch als auch nicht-akustisch ausgeben kann. Die Audioquelle 6 ist hier ein Mediengerät und speziell ein TV-Gerät. Die Audioquelle 6 wird wiederkehrend vom Nutzer 4 in dessen Alltag genutzt. Das akustisch ausgegebene Audiosignal propagiert entlang eines akustischen Pfads 10 zum Nutzer und speziell bis zu einem Mikrofon 12 eines Hörgeräts 14 des Nutzers 4 und wird entlang des akustischen Pfads 10 durch die Körperform des Nutzers 4 modifiziert.
  • Ein beispielhafter akustischer Pfad 10 ist in 2 gezeigt und enthält mehrere Abschnitte 16, 18, 20. Ein erster Abschnitt 16 ist definiert durch eine erste Modifikation, welche unabhängig vom Nutzer 4 durch die Umgebung erfolgt, und ist hier nicht weiter von Bedeutung. Ein zweiter Abschnitt 18 ist definiert durch eine zweite Modifikation, welche durch die Körperform (hauptsächlich Torsoform) und Kopfform des Nutzers 4 erfolgt. Der zweite Abschnitt 28 bildet den akustischen Pfad 10 über/entlang/durch den Körper des Nutzers 4 bis zum Ohr oder bis hinter das Ohr des Nutzers 4. Ein Eine dritte Modifikation 20 erfolgt durch das Ohr, speziell die Pinna des Nutzers 4 und definiert somit einen dritten und hier auch letzten Abschnitt 20 des akustischen Pfads 10 von außerhalb des Ohrs bis in den Gehörgang des Nutzers 4. Die Abschnitte 18, 20 sind definiert durch eine Übertragungsfunktion, welche der tatsächlichen, individuellen HRTF des Nutzers 4 entspricht. Das nicht-akustisch ausgegebene Audiosignal wird hingegen gerade nicht durch diese HRTF 2 modifiziert, sodass sich durch einen Vergleich der beiden unterschiedlich übertragenen Audiosignale die HRTF 2 individuell für den Nutzer bestimmen lässt.
  • Das hier beschriebene Verfahren dient allgemein zur Bestimmung einer HRTF 2 (d.h. „head-related transfer function“ oder kopfbezogene Übertragungsfunktion). Die Bestimmung der HRTF 2 erfolgt nutzerspezifisch für einen bestimmten Nutzer 4. Die Audioquelle 6 das Quell-Audiosignal 8 aus, nämlich sowohl akustisch als ein Schallsignal 22 als auch nicht-akustisch als ein Datensignal 24. Das Quell-Audiosignal 8 ist ein Audiosignal und als solches ein elektrisches Signal. Zur akustischen Ausgabe des Quell-Audiosignals 8 weist die Audioquelle 6 einen Lautsprecher 26 auf. Das gleiche Quell-Audiosignal 8 wird auch auf einem weiteren, nicht-akustischen Kanal ausgegeben, nämlich als Datensignal 24. Zur nicht-akustischen Ausgabe des Quell-Audiosignals 8 weist die Audioquelle 6 einen Datenausgang 28 auf, im gezeigten Ausführungsbeispiel eine Antenne für eine Drahtlosfunkverbindung. Eine drahtgebundene Aussendung ist aber ebenso möglich, der Datenausgang 28 ist dann ein entsprechender Anschluss. Wesentlich ist zunächst lediglich, dass dasselbe Quell-Audiosignal 8 auf zwei unterschiedlichen Kanälen ausgegeben wird, nämlich einmal akustisch als Schallsignal 22 und einmal nicht-akustisch als Datensignal 24.
  • Das Schallsignal 22 wird von dem Hörgerät 14 empfangen und von diesem wieder in ein Audiosignal umgewandelt, nämlich in ein erstes Audiosignal 30, welches auch als „akustisch übertragenes Audiosignal“ bezeichnet wird. Speziell bei einem Hörgerät 14 zur Versorgung eines hörgeschädigten Nutzers 4 ist das Empfangen von Schallsignalen 22 aus der Umgebung eine originäre Funktion des Hörgeräts 16. Das Datensignal 24 wird von dem Hörgerät 14 oder von einem anderen Gerät 32 empfangen, welches aus dem Datensignal 24 ein zweites Audiosignal 34 erzeugt. Hierzu weist das Hörgerät 14 oder das andere Gerät 32 entsprechend einen Dateneingang 44 auf, z.B. eine Antenne. Das andere Gerät 32 ist im gezeigten Ausführungsbeispiel ein Zusatzgerät, welches zum Datenaustausch mit dem Hörgerät 14 verbunden ist, beispielsweise ein Smartphone. Das zweite Audiosignal 34 wird auch als „nicht-akustisch übertragenes Audiosignal“ bezeichnet.
  • Das erste Audiosignal 30 und das zweite Audiosignal 34, d.h. die auf unterschiedlichen Kanälen übertragenen Audiosignale, werden miteinander verglichen und basierend darauf, d.h. basierend auf dem Vergleich, wird die HRTF 2 bestimmt. Das zweite Audiosignal 34 stimmt typischerweise weitgehend mit dem Quell-Audiosignal 8 überein und ist zumindest nicht durch die HRTF 2 beeinflusst worden. Im Gegensatz dazu wurde das Schallsignal 22 durch die HRTF 2 modifiziert, sodass sich das erste Audiosignal 30 entsprechend vom Quell-Audiosignal 8 unterscheidet. Zum Bestimmen der HRTF 2 wird dann z.B. das erste Audiosignal 30 als ein Soll-Signal verwendet und das zweite Audiosignal 34 als ein Ist-Signal.
  • Die auf die vorgenannte Weise bestimmte HRTF 2 wird vorliegend in dem Hörgerät 14 gespeichert und von einer Signalverarbeitung 36 des Hörgeräts 16 im Betrieb verwendet, um im Ergebnis das Schallsignal anzupassen, welches vom Hörgerät 14 an den Nutzer 4 ausgegeben wird. Ein beispielhaftes Hörgerät 14 ist in 3 gezeigt. Das hier gezeigte Hörgerät 14 ist ohne Beschränkung der Allgemeinheit ein Hörgerät 14 zur Versorgung eines hörgeschädigten Nutzers 4. Ebenso ist die Erfindung aber auch anwendbar auf andere Hörgeräte 16, wie z.B. einen Kopfhörer, welcher zusätzlich ein oder mehrere Mikrofone aufweist. Das hier gezeigte Hörgerät 14 weist einen Eingangswandler (nämlich das Mikrofon 12), die bereits genannte Signalverarbeitung 36 und einen Ausgangswandler 38 auf, hier ein Hörer. Der Eingangswandler erzeugt ein Eingangssignal, welches der Signalverarbeitung 36 zugeführt wird. Vorliegend erzeugt der Eingangswandler speziell auch das erste Audiosignal 30, welches entsprechend ein Eingangssignal ist. Die Signalverarbeitung 36 modifiziert das Eingangssignal und erzeugt dadurch ein Ausgangssignal, welches somit ein modifiziertes Eingangssignal ist. Zum Ausgleich eines Hörverlusts wird das Eingangssignal beispielsweise gemäß einem Audiogramm des Nutzers 4 mit einem frequenzabhängigen Verstärkungsfaktor verstärkt. Alternativ oder zusätzlich wird das Eingangssignal abhängig von der HRTF 2 modifiziert. Das Ausgangssignal wird schließlich mittels des Ausgangswandlers 38 an den Nutzer 4 ausgegeben.
  • In der hier gezeigten Ausgestaltung werden zur Bestimmung der HRTF 2 aus dem ersten und dem zweiten Audiosignal 30, 34 jeweils lediglich Ausschnitte 40, sogenannten Samples, entnommen und als ein Datensatz 42 gespeichert. Dies ist in 4 illustriert. Die beiden Ausschnitte 40 (ein Ausschnitt 40 aus dem ersten Audiosignal 30 und ein Ausschnitt 40 aus dem zweiten Audiosignal 34) eines jeweiligen Datensatzes 42 stammen hier auch aus demselben Zeitintervall oder weisen einen übereinstimmenden Zeitstempel auf. Typischerweise wird eine Vielzahl an Datensätzen 42 aufgenommen und gespeichert und zur Bestimmung der HRTF 2 ausgewertet. Dies erfolgt entweder auf dem Hörgerät 14, auf einem Zusatzgerät wie beschrieben oder auf einem separaten Computer, z.B. einem Server.
  • Die zuvor beschriebene Aufnahme und Wiederausgabe eines Schallsignals mit Modifikation auf elektrischer Ebene ist der Regelfall im Betrieb des Hörgeräts 16, dies wird auch als „Normalbetrieb“ des Hörgeräts 16 bezeichnet. Zusätzlich zum Normalbetrieb weist das hier beschriebene Hörgerät 14 noch einen Streamingbetrieb auf, in welchem die Ausgabe an den Nutzer 4 auf dem Datensignal 24 basiert, welches von der Audioquelle 6 ausgesendet wird. Beim Streamingbetrieb wird auf eine Umwandlung in und Rückwandlung aus einem Schallsignal verzichtet und ein Audiosignal von der Audioquelle 6 verlustfrei und unbeeinflusst zum Nutzer 4 übertragen. Der Streamingbetrieb wird beispielsweise verwendet, um ein Audiosignal 8 von einem TV-Gerät, Computer oder Smartphone und allgemein von einer Audioquelle 6 zum Hörgerät 14 zu übertragen. Das Hörgerät 14 weist entsprechend einen Dateneingang 44 auf, welcher komplementär zum Datenausgang 28 der Audioquelle ausgebildet ist, hier demnach ebenfalls als eine Antenne.
  • Vorliegend werden nun die Funktionalitäten des Normalbetriebs und des Streamingbetriebs vereint, um die HRTF 2 zu bestimmen. Das Hörgerät 14 empfängt einerseits mittels des Mikrofons 12 das Schallsignal 22 von der Audioquelle 6 und nutzt somit die Funktionalität des Normalbetriebs. Andererseits empfängt das Hörgerät 14 das Datensignal 24 von der Audioquelle 6 und nutzt somit die Funktionalität des Streamingbetriebs. Welches der beiden Audiosignale 30, 34 dann tatsächlich auch wieder über den Ausgangswandler 38 an den Nutzer 4 ausgegeben wird, ist nicht von Bedeutung und bleibt z.B. dem Nutzer überlassen.
  • Für das hier beschriebene Verfahren ist jedoch nicht zwingend erforderlich, dass das Hörgerät 14 einen Streamingbetrieb aufweist oder generell das Datensignal 24 empfängt, dieses kann auch von einem anderen Gerät 32 empfangen werden. Das erste und das zweite Audiosignal 30, 34 müssen lediglich auf irgendeinem Gerät zusammengeführt werden, um dort verglichen zu werden und darauf basierend die HRTF 2 zu bestimmen.
  • Wichtig für die korrekte Bestimmung der HRTF 2 ist jedoch, dass das Hörgerät 14 das Schallsignal 22 empfängt, denn das Hörgerät 14 wird vom Nutzer 4 getragen, während jedes andere Gerät 32 regelmäßig abseits des Nutzers 4 positioniert ist und daher nicht geeignet ist, ein Schallsignal 22 zu empfangen, welches entlang des akustischen Pfads 10 zum Nutzer 4 propagiert. In der hier gezeigten Ausgestaltung empfängt entsprechend das Hörgerät 14 das Schallsignal 22 mit einem Mikrofon 12, welches ein Teil des Hörgeräts 16 ist. Das hier gezeigte Hörgerät 14 ist zudem derart ausgebildet, dass in getragenem Zustand das Mikrofon 12 in oder an einem Ohr des Nutzers 4 positioniert ist. Die genaue Position des Mikrofons 12 hängt vom Typ des Hörgeräts 16 ab. Bei einem BTE-Gerät ist das Mikrofon 12 hinter dem Ohr positioniert, bei einem RIC-Gerät im Gehörgang und bei einem ITE-Gerät im Ohr, noch vor dem Gehörgang. Gegebenenfalls wird demnach nicht der gesamte akustische Pfad 10 bis in den Gehörgang hinein berücksichtigt und die HRTF 2 entsprechend nur für einen oder einzelne Abschnitte 18, 20 des akustischen Pfads 10 bestimmt. Das Hörgerät 14 ist entweder monaural und wird dann nur auf einer Seite (links oder rechts) des Kopfs getragen oder - wie hier gezeigt - binaural und weist dann zwei Einzelgeräte auf, welche auf unterschiedlichen Seiten des Kopfs getragen werden (d.h. links und rechts). Bei einem binauralen Hörgerät 14 weisen beide Einzelgeräte jeweils ein oder mehrere Mikrofone 12 auf.
  • Im hier gezeigten Ausführungsbeispiel wird bei der Bestimmung der HRTF 2 auch die räumliche Situation bezüglich des Nutzers 4 berücksichtigt, hier speziell dessen relative räumliche Beziehung zur Audioquelle 6. Die räumliche Situation ist im gezeigten Ausführungsbeispiel charakterisiert durch eine Position 46, Entfernung 48 und/oder Orientierung 50 des Nutzers 4 relativ zur Audioquelle 6. In einer nicht explizit gezeigten Variante ist die räumliche Situation alternativ oder zusätzlich speziell eine Orientierung des Kopfes des Nutzers 4 relativ zu dessen Torso oder allgemein eine Körperhaltung des Nutzers 4. Andere Körperhaltungen sind z.B. Sitzen, Liegen, Stehen. Der akustische Pfad 10 hängt regelmäßig davon ab, wie der Körper des Nutzers 4 relativ zur Audioquelle 6 ausgerichtet ist oder welche Körperhaltung der Nutzer 4 einnimmt, d.h. ob das Schallsignal 22 den Nutzer 4 z.B. von vorn, von hinten oder von der Seite erreicht und wie dessen eigener Körper, speziell Torso, das Schallsignal abschattet. Entsprechend ist die Modifikation des Schallsignals 22 bei dessen Propagation zum Nutzer 4 abhängig von der relativen räumlichen Beziehung zwischen Nutzer 4 und Audioquelle 6 sowie der Körperhaltung des Nutzers 4, sodass auch die HRTF 2 situationsabhängig und speziell richtungsabhängig und körperhaltungsabhängig ist. Daher werden Datensätze 42 in möglichst vielen unterschiedlichen, relativen räumlichen Situationen aufgenommen, d.h. für möglichst viele verschiedene Positionen 46, Entfernungen 48, Orientierungen 50 und/oder Körperhaltungen. Wie genau die räumliche Situation, z.B. die Position 46, Entfernung 48 und/oder Orientierung 50 des Nutzers 4 relativ zur Audioquelle 6, bestimmt wird, ist vorliegend von untergeordneter Bedeutung und daher hier nicht weiter Gegenstand. Jedenfalls werden vorliegend zur Bestimmung der HRTF 2 ein jeweiliger Ausschnitt 40 aus dem ersten und dem zweiten Audiosignal 30, 34 und eine räumliche Situation gemeinsam als ein Datensatz 42 gespeichert, sodass ein jeweiliger Datensatz 42 dann auch eine Information über die räumliche Situation enthält.
  • Eine Erzeugung von Datensätzen 42 ist auf verschiedenste Weisen möglich, insbesondere mit unterschiedlichem Grad an Beteiligung des Nutzers 4 und mit oder ohne eine spezielle Ansteuerung der Audioquelle 6.
  • Zunächst ist eine Ausgestaltung möglich, bei welcher fortlaufend Datensätze 42 erzeugt werden, ohne dass der Nutzer 4 überhaupt aktiv werden muss oder die Audioquelle 6 speziell gesteuert werden muss. Das Verfahren wird somit bei bestimmungsgemäßer Verwendung sozusagen im Hintergrund ausgeführt und stört den Nutzer 4 somit nicht.
  • Alternativ oder zusätzlich wird die Audioquelle 6 derart gesteuert, dass diese bei Vorliegen einer räumlichen Situation, für welche noch keine Mindestanzahl an Datensätzen 42 vorhanden ist, ein Quell-Audiosignal 8 ausgibt, um für diese räumliche Situation einen Datensatz 42 zu erzeugen. In dieser Ausgestaltung wird die Audioquelle 6 demnach speziell gesteuert, um gezielt für solche räumlichen Situationen einen Datensatz 42 zu erzeugen, für welche noch nicht ausreichend viele Datensätze 42 für eine hinreichend gute Bestimmung der HRTF 2 vorhanden sind. Wie viele Datensätze 42 tatsächlich für eine jeweilige räumliche Situation benötigt werden, wie groß also die Mindestanzahl ist, ist zunächst nicht von Bedeutung. Beispielsweise beträgt die Mindestanzahl lediglich 1 oder alternativ 10, 100 oder 1000. Auch in dieser Ausgestaltung ist eine Beteiligung des Nutzers 4 nicht erforderlich, es erfolgt jedoch eine spezielle Ansteuerung der Audioquelle 6, um gezielt möglichst sinnvolle Datensätze 42 zu erzeugen.
  • Alternativ oder zusätzlich wird eine Anweisung an den Nutzer 4 ausgegeben, eine oder mehrere räumliche Situationen herzustellen, in welchen dann die Audioquelle 6 jeweils ein Quell-Audiosignal 8 ausgibt, um für diese räumlichen Situationen jeweils einen Datensatz 42 zu erzeugen. Die Anweisung wird beispielsweise von dem Hörgerät 14, der Audioquelle 6 oder einem anderen Gerät 32 ausgegeben. Die Anweisung ist beispielsweise akustisch oder optisch. Ob der Nutzer 4 der Anweisung tatsächlich folgt, bleibt ihm oder ihr selbst überlassen. Das Verfahren nutzt dann insgesamt eine Beteiligung des Nutzers 4, eine spezielle Ansteuerung der Audioquelle 6 ist jedoch nicht zwingend erforderlich.
  • Alternativ oder zusätzlich weist das Hörgerät 14 einen Testmodus auf und gibt in diesem an den Nutzer 4 ein Ausgangssignal aus, welches eine räumliche Geräuschinformation (d.h. „spatial cue“, z.B. ein räumlich lokalisiertes Geräusch) aufweist, um den Nutzer 4 dazu zu veranlassen sich in eine vorgesehene Richtung zu bewegen oder zu orientieren, nämlich insbesondere dorthin, wo das Geräusch vermeintlich herkommt. Weiter wird dann bestimmt, in welche tatsächliche Richtung sich der Nutzer 4 bewegt oder orientiert und diese wird mit der vorgesehenen Richtung verglichen, um einen Anpassungsgrad der HRTF 2 an den Nutzer 4 zu ermitteln. Der Anpassungsgrad gibt dann z.B. an, wie gut die aktuell bestimmte HRTF 2 mit der tatsächlichen HRTF 2 übereinstimmt. Der Testmodus ermöglicht somit eine Überprüfung der bisher bestimmten HRTF 2 und auch eine Ermittlung, wie gut diese mit der tatsächlichen HRTF 2 für den Nutzer 4 übereinstimmt.
  • Wie in 2 bereits erkennbar ist, ist die HRTF 2 grundsätzlich selbst zerlegbar in mehrere einzelne Übertragungsfunktionen, welche einzelne Abschnitte (z.B. die Abschnitte 18, 20) des akustischen Pfads 10 modellieren und welche dann zusammengefügt die HRTF 2 für den gesamten akustischen Pfad 10 ergeben. Unter Umständen ist es nicht erforderlich oder sogar unmöglich, die HRTF 2 für den gesamten akustischen Pfad 10 auf die beschriebene Weise zu bestimmen, sondern nur für einen oder mehrere einzelne Abschnitte 18,20, speziell diejenigen Abschnitte 18, 20, welche dem Nutzer 4 am nächsten sind, hier vor allem der dritte Abschnitt 20. Die übrigen Abschnitte 18 werden dann z.B. mittels einer jeweiligen Standardfunktion modelliert, besonders auch der Abschnitt 16, welcher an sich nicht zur HRTF beiträgt, dessen Bestimmung jedoch gegebenenfalls verfälscht.
  • In einer möglichen Ausgestaltung erfolgt die Bestimmung der HRTF 2 ausgehend von einer Basis-HRTF, welche eine Übertragungsfunktion für lediglich einen ersten Abschnitt 18, 20 eines akustischen Pfads 10 von der Audioquelle 6 zum Gehörgang des Nutzers 4 ist, sodass die HRTF 2 überwiegend für einen anderen, zweiten Abschnitt 18, 20 des akustischen Pfads 10 bestimmt wird. Beispielsweise enthält der zweite Abschnitt insbesondere denjenigen Teil des akustischen Pfads 10, welcher die Pinna enthält, hier der dritte Abschnitt 20 in 2. Die Basis-HRTF ist dann beispielsweise eine HRTF 2 eines Dummys und berücksichtigt vornehmlich die Körperform und allgemeine Kopfform des Nutzers 4. Diese Basis-HRTF wird dann durch das vorliegende Verfahren dahingehend optimiert, dass die spezielle Form der Pinna des Nutzers 4 berücksichtigt wird, sodass insgesamt die HRTF 2 nutzerspezifisch bestimmt wird. Hierfür ist das Hörgerät 14 z.B. derart ausgebildet, dass dessen Mikrofon 12 in getragenem Zustand im Gehörgang oder im Ohr des Nutzers 4 positioniert ist und nicht lediglich hinter dem Ohr.
  • Die HRTF 2 wird nicht zwingend von dem Hörgerät 14 bestimmt. In 5 wird die HRTF 2 beispielweise von einem Computer 52 bestimmt, hier einem Server, welcher separat von dem Hörgerät 14 und der Audioquelle 6 ausgebildet ist. Wie genau die Datensätze 42 hierfür an den Server gelangen ist nicht weiter relevant und hängt auch von der gewählten Ausgestaltung des Verfahrens, dem Hörgerät 14, der Audioquelle 6 und anderen gegebenenfalls beteiligten Geräten 32 ab. Insofern zeigt 5 lediglich eine von vielen möglichen Ausführungsformen. Möglich sind beispielsweise Ausgestaltungen, bei welchen das Hörgerät 14 das erste, akustisch übertragene Audiosignal 30 oder Ausschnitte 40 hiervon an den Server sendet, ebenso wird das zweite, akustisch übertragene Audiosignal 34 oder Ausschnitte 4 hiervon von dem Hörgerät 14 oder von einem anderen Gerät 32, z.B. einem Smartphone oder der Audioquelle 6, an den Server gesendet, welcher dann die HRTF 2 an das Hörgerät 14 sendet.
  • Im gezeigten Ausführungsbeispiel der 1 ist die Audioquelle 6 ein stationäres Gerät und verharrt typischerweise an derselben Stelle in der Umgebung, z.B. einem Raum wie gezeigt, während der Nutzer 4 sich relativ zur Audioquelle 6 bewegt und sich allgemein die räumliche Situation ändert. Eine solche Bewegung des Nutzers 4 ist in 1 durch einen beispielhaften Bewegungspfad 54 illustriert. Zudem ist die Audioquelle 6 in der hier gezeigten Ausgestaltung ein TV-Gerät. Wie in 1 erkennbar ist, hält sich der Nutzer 4 relativ zum TV-Gerät typischerweise in einer Entfernung von wenigen Metern auf, welche ähnlich ist zur Entfernung bei der Bestimmung einer HRTF 2 in einem echofreien Raum wie eingangs beschrieben. Außerdem ist das TV-Gerät in der Umgebung typischerweise immer an derselben Position platziert, sodass zusätzliche raumakustische Effekte, speziell entlang des ersten Abschnitts 16, bei der Bestimmung der HRTF 2 besser berücksichtigt werden. Das hier beschriebene Verfahren wird auch speziell dann durchgeführt, während der Nutzer 4 fernsieht, d.h. während die Audioquelle 6 eingeschaltet ist und sich der Nutzer 4 in dessen näherer Umgebung aufhält (z.B. innerhalb von weniger als 5 m entfernt von der Audioquelle 6). Dabei ist nicht zwingend erforderlich, dass der Nutzer 4 dem von dem TV-Gerät ausgesendeten Inhalten folgt oder spezielle Beachtung schenkt. In einer möglichen Ausgestaltung wird die Audioquelle 6 zudem derart gesteuert, dass diese das Audiosignal 8 als Schallsignal 22 über lediglich einen einzelnen Lautsprecher 26 ausgibt, sodass der akustische Pfad 10 genauer definiert ist.
  • Außerdem wird in einer Ausführungsform noch ein Akustikparameter der Umgebung bestimmt, um einen oder mehrere raumakustische Effekte zu quantifizieren, und bei der Bestimmung der HRTF 2 berücksichtigt. Dadurch wird hier eine Übertragungsfunktion für den ersten Abschnitt 16 bestimmt. Raumakustische Effekte sind beispielsweise Reflektionen des Schallsignals an Wänden oder Gegenständen in der Umgebung oder ein Nachhallen, speziell in einem Raum. Der Akustikparameter wird beispielsweise mit dem Hörgerät 14 bestimmt oder mit einem anderen Gerät 32.
  • Das Hörgerät 14 weist weiter eine Steuereinheit 56 auf, welche ausgebildet ist zur Durchführung des Verfahrens wie vorstehend beschrieben, zumindest derjenigen Schritte des Verfahrens, welche vom Hörgerät 14 durchgeführt werden.
  • Bezugszeichenliste
  • 2
    HRTF
    4
    Nutzer
    6
    Audioquelle
    8
    Quell-Audiosignal
    10
    akustischer Pfad
    12
    Mikrofon
    14
    Hörgerät
    16
    erster Abschnitt
    18
    zweiter Abschnitt
    20
    dritter Abschnitt
    22
    Schallsignal
    24
    Datensignal
    26
    Lautsprecher (der Audioquelle)
    28
    Datenausgang
    30
    erstes Audiosignal (aus Schallsignal)
    32
    anderes Gerät
    34
    zweites Audiosignal (aus Datensignal)
    36
    Signalverarbeitung
    38
    Ausgangswandler
    40
    Ausschnitt (Sample)
    42
    Datensatz
    44
    Dateneingang
    46
    Position
    48
    Entfernung
    50
    Orientierung
    52
    Computer (Server)
    54
    Bewegungspfad
    56
    Steuereinheit

Claims (14)

  1. Verfahren zur Bestimmung einer HRTF (2), a. wobei eine Audioquelle (6) ein Quell-Audiosignal (8) ausgibt, nämlich sowohl akustisch als ein Schallsignal (22) als auch nicht-akustisch als ein Datensignal (24), b. wobei das Schallsignal (22) von einem Hörgerät (14) eines Nutzers (4) empfangen wird und von diesem Hörgerät (14) wieder in ein Audiosignal (30) umgewandelt wird, nämlich in ein erstes Audiosignal (30), c. wobei das Datensignal (24) von dem Hörgerät (14) oder von einem anderen Gerät (6, 32) empfangen wird, welches aus dem Datensignal (24) ein zweites Audiosignal (34) erzeugt, d. wobei das erste Audiosignal (30) und das zweite Audiosignal (34) miteinander verglichen werden und basierend darauf die HRTF (2) bestimmt wird, e. wobei das Hörgerät (14) einen Testmodus aufweist und in diesem an den Nutzer (4) ein Ausgangssignal ausgibt, welches eine räumliche Geräuschinformation aufweist, um den Nutzer (4) dazu zu veranlassen sich in eine vorgesehene Richtung zu bewegen, f. wobei bestimmt wird, in welche tatsächliche Richtung sich der Nutzer (4) bewegt und diese mit der vorgesehenen Richtung verglichen wird, um einen Anpassungsgrad der HRTF (2) an den Nutzer (4) zu ermitteln.
  2. Verfahren nach Anspruch 1, wobei zum Bestimmen der HRTF (2) das erste Audiosignal (30) als ein Soll-Signal verwendet wird und das zweite Audiosignal (34) als ein Ist-Signal.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Hörgerät (14) das Schallsignal (22) mit einem Mikrofon (12) empfängt, wobei das Hörgerät (14) derart ausgebildet ist, dass in getragenem Zustand das Mikrofon (12) in oder an einem Ohr des Nutzers (4) positioniert ist.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei eine räumliche Situation bezüglich des Nutzers (4) ermittelt wird und bei der Bestimmung der HRTF (2) berücksichtigt wird, wobei die räumliche Situation bezüglich des Nutzers (4) ausgewählt ist aus einer Menge an räumlichen Situationen, umfassend: - eine Position (46) des Nutzers (4) relativ zur Audioquelle (6), - eine Entfernung (48) des Nutzers (4) relativ zur Audioquelle (6), - eine Orientierung (50) des Nutzers (4) relativ zur Audioquelle (6), - eine Orientierung des Kopfes des Nutzers (4) relativ zu dessen Torso, - eine Körperhaltung des Nutzers (4).
  5. Verfahren nach Anspruch 4, wobei zur Bestimmung der HRTF (2) ein jeweiliger Ausschnitt (40) aus dem ersten und dem zweiten Audiosignal (30, 34) und eine räumliche Situation bezüglich des Nutzers (4) gemeinsam als ein Datensatz (42) gespeichert werden, wobei die Audioquelle (6) derart gesteuert wird, dass diese bei Vorliegen einer räumlichen Situation bezüglich des Nutzers (4), für welche noch keine Mindestanzahl an Datensätzen (42) vorhanden ist, ein Quell-Audiosignal (8) ausgibt, um für diese räumliche Situation bezüglich des Nutzers (4) einen Datensatz (42) zu erzeugen.
  6. Verfahren nach Anspruch 4 oder 5, wobei eine Anweisung an den Nutzer (4) ausgegeben wird, eine oder mehrere räumliche Situationen herzustellen, in welchen dann die Audioquelle (6) jeweils ein Quell-Audiosignal (8) ausgibt, um für diese räumlichen Situationen jeweils einen Datensatz (42) zu erzeugen.
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei die Bestimmung der HRTF (2) ausgehend von einer Basis-HRTF erfolgt, welche eine Übertragungsfunktion für lediglich einen ersten Abschnitt (18, 20) eines akustischen Pfads (10) von der Audioquelle (6) zum Gehörgang des Nutzers (4) ist, sodass die HRTF (2) überwiegend für einen anderen, zweiten Abschnitt (18, 20) des akustischen Pfads (10) bestimmt wird.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei die HRTF (2) von einem Computer (52) bestimmt wird, welcher separat von dem Hörgerät (14) und der Audioquelle (6) ausgebildet ist.
  9. Verfahren nach einem der Ansprüche 1 bis 8, wobei die Audioquelle (6) ein stationäres Gerät ist.
  10. Verfahren nach einem der Ansprüche 1 bis 9, wobei die Audioquelle (6) ein TV-Gerät ist.
  11. Verfahren nach einem der Ansprüche 1 bis 10, wobei dieses durchgeführt wird, während der Nutzer (4) fernsieht.
  12. Verfahren nach einem der Ansprüche 1 bis 11, wobei die Audioquelle (6) derart gesteuert wird, dass diese das Quell-Audiosignal (8) als Schallsignal (22) über lediglich einen einzelnen Lautsprecher (26) ausgibt.
  13. Verfahren nach einem der Ansprüche 1 bis 12, wobei ein Akustikparameter der Umgebung bestimmt wird und bei der Bestimmung der HRTF (2) berücksichtigt wird.
  14. Hörgerät (14), welches eine Steuereinheit (56) aufweist, welche ausgebildet ist zur Durchführung eines Verfahrens gemäß einem der Ansprüche 1 bis 13.
DE102021211278.1A 2021-10-06 2021-10-06 Verfahren zur Bestimmung einer HRTF und Hörgerät Active DE102021211278B3 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102021211278.1A DE102021211278B3 (de) 2021-10-06 2021-10-06 Verfahren zur Bestimmung einer HRTF und Hörgerät
EP22199852.9A EP4164250A1 (de) 2021-10-06 2022-10-05 Verfahren zur bestimmung einer hrtf und hörgerät
US17/938,368 US20230109140A1 (en) 2021-10-06 2022-10-06 Method for determining a head related transfer function and hearing device
CN202211222505.3A CN115942173A (zh) 2021-10-06 2022-10-08 用于确定hrtf的方法和听力设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021211278.1A DE102021211278B3 (de) 2021-10-06 2021-10-06 Verfahren zur Bestimmung einer HRTF und Hörgerät

Publications (1)

Publication Number Publication Date
DE102021211278B3 true DE102021211278B3 (de) 2023-04-06

Family

ID=83598330

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021211278.1A Active DE102021211278B3 (de) 2021-10-06 2021-10-06 Verfahren zur Bestimmung einer HRTF und Hörgerät

Country Status (4)

Country Link
US (1) US20230109140A1 (de)
EP (1) EP4164250A1 (de)
CN (1) CN115942173A (de)
DE (1) DE102021211278B3 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9591427B1 (en) 2016-02-20 2017-03-07 Philip Scott Lyren Capturing audio impulse responses of a person with a smartphone
EP3873109A1 (de) 2020-02-27 2021-09-01 Oticon A/s Hörgerätesystem zur schätzung von akustischen übertragungsfunktionen

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10580417B2 (en) * 2013-10-22 2020-03-03 Industry-Academic Cooperation Foundation, Yonsei University Method and apparatus for binaural rendering audio signal using variable order filtering in frequency domain
US9432778B2 (en) * 2014-04-04 2016-08-30 Gn Resound A/S Hearing aid with improved localization of a monaural signal source
DK3468228T3 (da) * 2017-10-05 2021-10-18 Gn Hearing As Binauralt høresystem med lokalisering af lydkilder

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9591427B1 (en) 2016-02-20 2017-03-07 Philip Scott Lyren Capturing audio impulse responses of a person with a smartphone
EP3873109A1 (de) 2020-02-27 2021-09-01 Oticon A/s Hörgerätesystem zur schätzung von akustischen übertragungsfunktionen

Also Published As

Publication number Publication date
US20230109140A1 (en) 2023-04-06
CN115942173A (zh) 2023-04-07
EP4164250A1 (de) 2023-04-12

Similar Documents

Publication Publication Date Title
EP1414268B1 (de) Verfahren zum Einstellen und zum Betrieb eines Hörhilfegerätes sowie Hörhilfegerät
EP1619928B1 (de) Hörhilfe- oder Kommunikationssystem mit virtuellen Signalquellen
AT411950B (de) Verfahren zur steuerung eines hörgerätes
EP2091268B1 (de) Verfahren und Vorrichtung zum überwachen einer Hörhilfe
DE102011087984A1 (de) Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung
DE2244162B2 (de) Verfahren zur Simulation der bei einer Lautsprecherbeschallung auftretenden Hörereignisse mittels Kopfhörern
DE102012204877B3 (de) Hörvorrichtung für eine binaurale Versorgung und Verfahren zum Bereitstellen einer binauralen Versorgung
DE112014003797T5 (de) Dynamischer Treiber in einem Hörgerät
DE102013215131A1 (de) Verfahren zur Verfolgung einer Schallquelle
DE102020126873A1 (de) Modulares, am kopf tragbares lautsprechersystem
EP1471770B1 (de) Verfahren zur Erzeugung einer angenäherten Teilübertragungsfunktion
EP0484354B1 (de) STEREOKOPFHöRER ZUR VORNEORTUNG VON MITTELS STEREOKOPFHöRERN ERZEUGTEN HöREREIGNISSEN
DE102021211278B3 (de) Verfahren zur Bestimmung einer HRTF und Hörgerät
DE3146706C2 (de)
US20130101123A1 (en) Method for determining a compression characteristic, method for determining a knee point and method for adjusting a hearing aid
DE102011003450A1 (de) Erzeugung von benutzerangepassten Signalverarbeitungsparametern
DE102015212609A1 (de) Verfahren zum Betrieb eines Hörgerätesystems und Hörgerätesystem
DE102007035173A1 (de) Verfahren zum Einstellen eines Hörsystems mit einem perzeptiven Modell für binaurales Hören und entsprechendes Hörsystem
EP0126783A1 (de) Ein breitbandiger rauscharmer Kunstkopf mit hoher Dynamik und der Eigenschaft der originalgetreuen Übertragung von Hörereignissen
DE102010041775A1 (de) Verfahren zum Anpassen einer Hörvorrichtung mit Perzentilanalyse und Anpassvorrichtung
EP0025509B1 (de) Stereophones Übertragungsverfahren und Mittel zur Durchführung des Verfahrens
DE102009004182B3 (de) Verfahren und Anordnung zur Seitenbestimmung einer Hörvorrichtung
DE102018210053A1 (de) Verfahren zur Audio-Wiedergabe in einem Hörgerät
EP3695620B1 (de) Verbesserter schallwandler
DE102013207080A1 (de) Binaurale Mikrofonanpassung mittels der eigenen Stimme

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final