EP1523219B1 - Verfahren zum Nachtrainieren und Betreiben eines Hörgeräts und entsprechendes Hörgerät - Google Patents

Verfahren zum Nachtrainieren und Betreiben eines Hörgeräts und entsprechendes Hörgerät Download PDF

Info

Publication number
EP1523219B1
EP1523219B1 EP04022104A EP04022104A EP1523219B1 EP 1523219 B1 EP1523219 B1 EP 1523219B1 EP 04022104 A EP04022104 A EP 04022104A EP 04022104 A EP04022104 A EP 04022104A EP 1523219 B1 EP1523219 B1 EP 1523219B1
Authority
EP
European Patent Office
Prior art keywords
hearing aid
hearing
input signal
situation
acoustic input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Revoked
Application number
EP04022104A
Other languages
English (en)
French (fr)
Other versions
EP1523219A3 (de
EP1523219A2 (de
Inventor
Matthias Dr. Fröhlich
Thomas Dr. Hies
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sivantos GmbH
Original Assignee
Siemens Audioligische Technik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34306363&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=EP1523219(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Siemens Audioligische Technik GmbH filed Critical Siemens Audioligische Technik GmbH
Publication of EP1523219A2 publication Critical patent/EP1523219A2/de
Publication of EP1523219A3 publication Critical patent/EP1523219A3/de
Application granted granted Critical
Publication of EP1523219B1 publication Critical patent/EP1523219B1/de
Revoked legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • H04R25/507Customised settings for obtaining desired overall acoustical characteristics using digital signal processing implemented by neural network or fuzzy logic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest

Definitions

  • the present invention relates to a method for training a hearing aid by providing an acoustic input signal, providing a plurality of hearing situation identifications and assigning the acoustic input signal to one of the hearing situation identifications by a hearing device wearer. Moreover, the present invention relates to a corresponding hearing aid that is nachtrainierbar, and a method for operating such a hearing aid after a night workout.
  • Classifiers are used in hearing aids to detect different situations. However, the default parameters may not necessarily be optimal for the appropriate situations with an individual hearing aid wearer. By night training, as it is usually used in speaker-related speech recognition systems, in certain situations, the recognition rate can be increased in terms of individual conditions. This is particularly important for the situation of the performance of one's own voice. Likewise, the classifier can be optimally adjusted to certain noise situations which are typical for the acoustic environment of the hearing device wearer.
  • the hearing situation is only indirectly taken into account by the fact that only the parameter sets corresponding to this hearing situation are made available for selection.
  • a disadvantage is that the hearing aid wearer in such night training the sound of the hearing aid, which is determined by the parameter set used to assess. He has to judge, for example, whether he wants to get the sound brighter or darker.
  • adaptive parameters such as, while controlling an adaptive directional microphone, differentiation between different sets of parameters is difficult, if not impossible, for the hearing aid wearer.
  • the object of the present invention is therefore to simplify the night training of a hearing device for the hearing aid wearer and to improve the operation of the hearing aid accordingly.
  • this object is achieved by a method for training a hearing aid by providing an acoustic input signal, providing a plurality of hearing situation identifiers and assigning the acoustic input signal to one of the hearing situation identifications by a hearing aid wearer and automatically learning the assignment of the acoustic input signal to the one of the hearing situation identifications.
  • the invention provides a hearing aid with a recording device for receiving an acoustic input signal, a memory device for storing a plurality Hörsituationskennonne and an input device for assigning the acoustic input signal to one of the Hörsituationskennonne by a hearing aid wearer and a learning device for automatically learning the assignment of the acoustic input signal to the one the Hörsituationskennonne by the input device.
  • the invention is based on the knowledge that for the hearing aid wearer although the differentiation between different parameter sets is difficult, however, the naming of an acoustic situation that is currently present, for.
  • These situations go beyond the hearing situations conventionally used in hearing aids, such as "speech at rest” and “speech in noise”.
  • the more differentiated listening situations can relate to sub-aspects of these "classic” situations that are relevant for signal processing.
  • the acoustic representations that this novel, Underlying more diverse situations can be easily retrained by specific naming.
  • the sound of one's own voice or the specific sound of one's own car can be learned by the hearing aid, for example through a neural network.
  • the neural network thus takes contrary to the mentioned prior art according to EP 0 813 634 A1 a mapping of the acoustic input variables not to the resulting overall setting (parameter set) of the hearing aid, but to the internal situation representation (Hörsituationskennung) before. From this, the hearing aid parameter set to be used is then derived or the relevant parameters varied and / or supplemented based on audiological expert knowledge.
  • the adaptive algorithms can reuse this information without the hearing aid wearer having to evaluate the result.
  • one of the listening situations of the performance of the own voice of the hearing aid wearer can correspond, so that after the automatic learning of the own voice can be detected. This is in many situations, for example, for the directional microphone setting of great importance.
  • the automatic learning of the at least one hearing device setting parameter for the assigned hearing situation on the basis of the automatic evaluation can take place during (online) or after (offline) the presentation of the acoustic input signal.
  • online night training the acoustic input signal does not have to be completely stored, but the hearing aid requires more computing power for the night training perform.
  • offline night training eliminates this additional computing needs in the hearing aid, however, a memory device for the acoustic input signal is needed.
  • the online evaluation avoids the time-consuming reading, processing and reprogramming of the data or the hearing aid.
  • the input device for assigning the acoustic input signal to a listening situation can also be used to start and stop the night training. As a result, the handling of the hearing aid or the implementation of the night training for the hearing aid wearer is simplified.
  • the input device may consist of a receiver integrated in the hearing device and an external remote control.
  • the remote control may be configured for wired or wireless communication with the hearing aid. It is also conceivable that the remote control is used exclusively for the night training of the hearing aid.
  • the remote control as a multi-function device, such as a mobile phone or portable computer with radio intersection speed, be configured.
  • the input device may also comprise a programmable arithmetic unit, in particular a PC, so that the operation takes place via a corresponding programming software.
  • a programmable arithmetic unit in particular a PC
  • the input device can be verbally and in particular operated by means of one or more keywords.
  • the operation of the hearing device for the hearing aid wearer is made even more comfortable.
  • the acoustic input signal may comprise a manually or automatically processed voice signal. This makes it possible to train the classifier very specifically.
  • a currently valid parameter set can be influenced by automatically assigning the current hearing situation to a hearing situation identifier.
  • a parameter of the parameter set can be varied and / or supplemented by the automatic allocation.
  • the hearing aid wearer or user 1 is located, as in FIG. 1 represented, in a special acoustic situation in the hearing aid, an acoustic input signal 2 available stands. Since the hearing aid for the hearing aid wearer 1 is subjectively not optimally adjusted, he undertakes a night training. For this he classifies the noise and tells the hearing aid the corresponding very general hearing situation or hearing situation identification, eg. As "speech in noise", with. Each of these listening situations 3 is assigned a plurality of parameter sets 4 in each case. Due to the selected listening situation 3, the hearing aid wearer 1 has, for example, seven parameter sets to choose from. He can now select the parameter set 4, with which the hearing aid is set so that it produces the subjectively best sound in this acoustic situation.
  • a neural network 5 learns the desired parameter set 4 for the applied acoustic input signal 2, so that it will again choose this parameter set 4 for a similar acoustic situation after the training phase.
  • the hearing aid should not train the use of special parameter sets, but only the recognition of the current situation. This is done according to the method of FIG. 2 , Here, too, the hearing aid wearer or user 1 receives the acoustic input signal 2.
  • the hearing aid wearer 1 For the night training of the neural network 5 in the hearing aid, the hearing aid wearer 1 must assign the acoustic situation in which he is currently located to only one of a multiplicity of predefined, specific hearing situations 3 ' ,
  • the number of specific listening situations 3 'in the case of the present invention is usually greater than the number of general listening situations 3 according to FIG FIG. 1 because they should be differentiated from the beginning.
  • the general listening situation "speech in noise" includes, for example, the specific hearing situation "own voice".
  • the neural network 5 does not learn the assignment of a parameter set to the acoustic input signal 2, but the assignment of a differentiated hearing situation or a hearing situation identifier 3 'to the acoustic input signal 2 (see arrows with solid lines in FIG FIG. 2 ).
  • This means that the neural network unlike the prior art, learns at a higher level.
  • the example of the listening situation "own voice in your own car” this is explained in more detail.
  • this complex situation is assigned a fixed parameter set starting, for example, from the parameter set group "speech in noise". Since only a number of parameter sets for the selection for the hearing aid wearer for such situations "speech in noise" makes sense, certainly none of the available parameter sets for their own voice and additionally optimized for their own car.
  • the situation "own voice” and the other situation “in your own car” learned separately. These listening situations each have a specific influence on the complex signal processing. For example, in the situation “own voice” a specific amplification, possibly coupled with a special setting of the directivity of the hearing aid, and in the situation “in-house car” in turn causes a very specific noise reduction in the hearing aid.
  • one's own voice can be learned by the hearing aid. This takes place in that the acoustic input signal is subjected to a special processing with the own voice and specific parameters for the hearing aid are set specifically and assigned to the hearing situation "own voice". The same applies to learning, for example the hearing situation "own car", whereby a very specific noise reduction can be achieved. Thus, not only the input signal of a hearing situation is allocated here during learning, but also a very specific determination of parameters, such as filter or amplification parameters, takes place.
  • the neural network 5 will assign an input acoustic signal 2 to one or more specific hearing situation identifiers 3 ', so that the currently valid parameter set 4' (including filter parameters) will be affected accordingly.
  • Example 1 An adaptive directional microphone depends on the direction from which the maximum useful sound, z. As a voice signal, is incident. If the hearing aid wearer is talking to a person running next to him, the directional microphone should adjust to the conversation partner, ie to a maximum gain at an angle of approximately 90 °. However, as soon as the hearing aid wearer speaks for himself, the useful sound signal comes from his own mouth, ie from an angle of 0 °. The own language thus pulls the directional microphone characteristic away from the actual conversation partner and that usually with a certain delay.
  • Example 2 A noise suppression method can be specially trained for a complex time-varying noise. This noise is then optimally suppressed, although it may have similar spectral components or a modulation spectrum such as speech, which is to be further processed as a useful signal. Through individual training on this acoustic situation, z. For example, if the above-mentioned situation "in the car", the noise reduction method can be automatically set optimally, for example, by adjusting special weighting factors for individual spectral bands or the dynamic behavior is optimally adapted to the noise characteristic. Even in this case, the differences between the dynamic noise reduction settings are difficult to evaluate directly, while the situation is very reliable.
  • a night training according to the prior art takes place while the hearing aid wearer evaluates different parameter sets.
  • the night training as it is for the hearing aid wearer, is now based on the 3 and 4 explained in more detail.
  • the hearing aid wearer wants to train the situation "own voice" in his hearing aid 10. For this purpose, he connects via a line 11, a remote control 12 to the hearing aid 10.
  • the remote control has a button 13 as a control.
  • an acoustic signal here the own voice
  • the hearing aid wearer must now inform the hearing aid 10 about the beginning and the end of the training phase. This is done by holding the button 13 while speaking. This means that he must use only a single control element 13 for both steps of the training. If there are many listening situation identifiers, another design may be more user-friendly, e.g. B. with a display and a controller (slider, trackball, etc.), with the appropriate situation can be quickly selected.
  • the actual night training of the hearing aid 10 may occur during the performance of the acoustic signal 14.
  • the acoustic signal 14 is recorded in the hearing aid and evaluated after recording or assigned to the selected auditory situation due to characteristic acoustic properties.
  • a permanent or temporary storage of the acoustic signal 14 is not absolutely necessary.
  • the hearing aid 10 Since the hearing aid 10 only the information about the current situation must be communicated, in contrast to the prior art according to EP 0 814 634 A1 an external operating unit is not absolutely necessary. It can, however, according to the 3 and 4 be used for example for reasons of comfort. However, it can also be a recording button attached to the hearing aid itself.
  • the recognition rate of the classifier for certain situations can be significantly increased compared to the default, so that the hearing aid sets more reliably to this situation. Due to the self-starting and ending of the night training phase by the hearing aid wearer situations can also be trained nachtrainiert reliable because the hearing aid wearer himself decides when the signal can be assigned to the situation.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Nachtrainieren eines Hörgeräts durch Bereitstellen eines akustischen Eingangssignals, Bereitstellen mehrerer Hörsituationskennungen und Zuordnen des akustischen Eingangssignals zu einer der Hörsituationskennungen durch einen Hörgeräteträger. Darüber hinaus betrifft die vorliegende Erfindung ein entsprechendes Hörgerät, das nachtrainierbar ist, und ein Verfahren zum Betreiben eines derartigen Hörgeräts nach einem Nachtraining.
  • Klassifikatoren finden in Hörgeräten zur Erkennung unterschiedlicher Situationen Einsatz. Die voreingestellten Parameter müssen allerdings für die entsprechenden Situationen bei einem individuellen Hörgeräteträger nicht notwendigerweise optimal sein. Durch Nachtraining, wie es üblicherweise bei sprecherbezogenen Spracherkennungssystemen eingesetzt wird, kann in bestimmten Situationen die Erkennungsrate bezüglich der individuellen Rahmenbedingungen erhöht werden. Dies ist insbesondere für die Situation der Darbietung der eigenen Stimme von großer Bedeutung. Ebenso kann der Klassifikator auf bestimmte Lärmsituationen, die typisch für das akustische Umfeld des Hörgeräteträgers sind, optimal eingestellt werden.
  • In diesem Zusammenhang ist aus der Druckschrift EP 0 681 411 A1 ein programmierbares Hörgerät bekannt, das sich eigenständig den wechselnden Umgebungssituationen anpasst. Die Hörgeräteparameter werden dabei kontinuierlich an die vorliegenden Umgebungsgeräusche angepasst, wobei "unscharfe" Eingaben vom Hörgeräteträger zusätzlich zu den gemessenen Eingangssignalen verwendet werden können. Die Zielsetzung hierbei ist, die Parameter direkt zu optimieren, wobei auf die Hörsituation nicht explizit eingegangen wird.
  • In der Druckschrift EP 0 814 634 A1 ist ferner ein Verfahren beschrieben, mit dem der Hörgeräteträger das Hörgerät optimal auf sich einstellt, indem ein durch den Hörgeräteträger veranlasstes Nachtraining durchgeführt wird. Der Hörgeräteträger erhält eine Menge vordefinierter Parametersätze für diejenige Hörsituation, die er dem Hörgerät mitteilt, zur Auswahl. Aus dieser begrenzten Menge an Parametersätzen, die jeweils einer Hörgerätevoreinstellung entsprechen, wählt er denjenigen aus, den er als optimal für sich empfindet. Die entsprechende Hörgeräteeinstellung wird von einem Regelwerk gelernt, so dass bei einem ähnlichen akustischen Eingangssignal dieselbe Hörgeräteeinstellung erfolgt. Dies bedeutet, dass das Regelwerk eine Abbildung der akustischen Eingangsgrößen auf den optimalen Hörgeräte-Parametersatz vornimmt. Bei diesem Nachtraining wird die Hörsituation nur indirekt dadurch berücksichtigt, dass ausschließlich die dieser Hörsituation entsprechenden Parametersätze zur Auswahl zur Verfügung gestellt werden. Eine direkte Anpassung der Hörsituation an die akustischen Eingangsdaten erfolgt jedoch nicht. Nachteilig dabei ist, dass der Hörgeräteträger bei derartigem Nachtraining den Klang des Hörgeräts, der durch den verwendeten Parametersatz festgelegt ist, beurteilen muss. Er muss beispielsweise beurteilen, ob er das Geräusch heller oder dunkler dargeboten bekommen will. Für bestimmte komplexe Algorithmen und dynamische, adaptive Parameter, wie z. B. die Steuerung eines adaptiven Richtmikrofons, ist jedoch die Differenzierung zwischen verschiedenen Parametersätzen für den Hörgeräteträger schwierig, wenn nicht sogar unmöglich.
  • Die Aufgabe der vorliegenden Erfindung besteht somit darin, das Nachtraining eines Hörgeräts für den Hörgeräteträger zu vereinfachen und das Betreiben des Hörgeräts entsprechend zu verbessern.
  • Erfindungsgemäß wird diese Aufgabe gelöst durch ein Verfahren zum Nachtrainieren eines Hörgeräts durch Bereitstellen eines akustischen Eingangssignals, Bereitstellen mehrerer Hörsituationskennungen und Zuordnen des akustischen Eingangssignals zu einer der Hörsituationskennungen durch einen Hörgeräteträger sowie automatisches Lernen der Zuordnung des akustischen Eingangssignals zu der einen der Hörsituationskennungen.
  • Ferner ist erfindungsgemäß vorgesehen ein Hörgerät mit einer Aufnahmeeinrichtung zum Aufnehmen eines akustischen Eingangssignals, einer Speichereinrichtung zum Speichern mehrerer Hörsituationskennungen und einer Eingabeeinrichtung zum Zuordnen des akustischen Eingangssignals zu einer der Hörsituationskennungen durch einen Hörgeräteträger sowie einer Lerneinrichtung zum automatischen Lernen der Zuordnung des akustischen Eingangssignals zu der einen der Hörsituationskennungen durch die Eingabeeinrichtung.
  • Der Erfindung liegt die Kenntnis zugrunde, dass für den Hörgeräteträger zwar die Differenzierung zwischen verschiedenen Parametersätzen schwierig ist, hingegen das Benennen einer akustischen Situation, die gerade vorliegt, z. B. die Situation "eigene Stimme" oder "Unterhaltung im Auto", in den meisten Fällen sehr zuverlässig durch den Hörgeräteträger möglich ist. Diese Situationen gehen über die herkömmlich in Hörgeräten verwendeten Hörsituationen wie "Sprache in Ruhe" und "Sprache in Störgeräusch" hinaus. D. h. die differenzierteren Hörsituationen können sich auf für die Signalverarbeitung relevanten Teilaspekte dieser "klassischen" Situationen beziehen. Die akustischen Repräsentationen, die diesen neuartigen, vielfältigeren Situationen zugrunde liegen, können auf einfache Weise durch spezifisches Benennen individuell nachtrainiert werden. Beispielsweise kann der Klang der eigenen Stimme oder der spezifische Klang des eigenen Autos vom Hörgerät beispielsweise durch ein neuronales Netz erlernt werden. Das neuronale Netz nimmt somit im Gegensatz zu dem erwähnten Stand der Technik gemäß EP 0 813 634 A1 eine Abbildung der akustischen Eingangsgrößen nicht auf die resultierende Gesamteinstellung (Parametersatz) des Hörgeräts, sondern auf die interne Situationsrepräsentation (Hörsituationskennung) vor. Aus dieser wird dann basierend auf audiologischem Expertenwissen der zu verwendende Hörgeräteparametersatz abgeleitet bzw. die einschlägigen Parameter variiert und/oder ergänzt. Insbesondere können die adaptiven Algorithmen diese Information weiterverwerten, ohne dass der Hörgeräteträger das Resultat bewerten muss. Dieses einfache Zuweisen des akustischen Eingangssignals zu vorgegebenen Hörsituationen ist wegen der Adaptivität der Algorithmen und der damit verbundenen zeitlichen Dynamik bei weitem weniger schwierig für den Hörgeräteträger als die direkte Klangbewertung, wie beispielsweise des Frequenzgangs oder der Kompressionsverhältnisse/-kniepunkte, gemäß dem Stand der Technik.
  • Bei einer erfindungsgemäßen speziellen Ausgestaltung kann eine der Hörsituationen der Darbietung der eigenen Stimme des Hörgeräteträgers entsprechen, so dass nach dem automatischen Lernen die eigene Stimme erkannt werden kann. Dies ist in vielen Situationen beispielsweise für die Richtmikrofoneinstellung von großer Bedeutung.
  • Das automatische Lernen des mindestens einen Hörgeräteeinstellparameters für die zugeordnete Hörsituation auf der Grundlage der automatischen Auswertung kann während (online) oder nach (offline) der Darbietung des akustischen Eingangssignals erfolgen. Beim Online-Nachtraining muss das akustische Eingangssignal nicht vollständig gespeichert werden, jedoch benötigt das Hörgerät mehr Rechenleistung, um das Nachtraining durchzuführen. Beim Offline-Nachtraining entfällt dieser zusätzliche Rechenbedarf im Hörgerät, jedoch wird eine Speichervorrichtung für das akustische Eingangssignal benötigt. Die Online-Auswertung vermeidet das zeitaufwendige Auslesen, Prozessieren und Reprogrammieren der Daten bzw. des Hörgeräts.
  • Die Eingabeeinrichtung zum Zuordnen des akustischen Eingangssignals zu einer Hörsituation kann auch zum Starten und Stoppen des Nachtrainings verwendet werden. Dadurch wird die Handhabung des Hörgeräts bzw. die Durchführung des Nachtrainings für den Hörgeräteträger vereinfacht.
  • Darüber hinaus kann die Eingabeeinrichtung aus einem in das Hörgerät integrierten Empfänger und einer externen Fernbedienung bestehen. Die Fernbedienung kann für drahtgebundene oder drahtlose Kommunikation mit dem Hörgerät ausgestaltet sein. Denkbar ist des Weiteren, dass die Fernbedienung ausschließlich für das Nachtraining des Hörgeräts verwendet wird. Alternativ kann die Fernbedienung als Multifunktionsgerät, beispielsweise als Mobiltelefon oder tragbarer Rechner mit Funkschnittschnelle, ausgestaltet sein.
  • Die Eingabeeinrichtung kann außerdem eine programmierbare Recheneinheit, insbesondere einen PC umfassen, so dass die Bedienung über eine entsprechende Programmiersoftware erfolgt.
  • Schließlich kann die Eingabeeinrichtung bei einer speziellen Ausführungsform verbal und insbesondere mittels eines oder mehrerer Schlüsselworte bedienbar sein. Dadurch wird die Bedienung des Hörgeräts für den Hörgeräteträger noch komfortabler gestaltet.
  • Ferner kann das akustische Eingangssignal ein manuell oder automatisch aufbereitetes Sprachsignal umfassen. Damit ist es möglich, den Klassifikator sehr spezifisch zu trainieren.
  • Beim Betrieb des Hörgeräts, d. h. nach dem Nachtraining, kann ein momentan geltender Parametersatz durch das automatische Zuordnen der aktuellen Hörsituation zu einer Hörsituationskennung beeinflusst werden. Insbesondere kann ein Parameter des Parametersatzes durch das automatische Zuordnen variiert und/oder ergänzt werden. Dadurch ist es möglich, dass das akustische Eingangssignal einer komplexen Signalverarbeitung basierend auf Expertenwissen unterzogen wird, wenn das neuronale Netz eine gelernte Hörsituation, z. B. die eigene Stimme, erkennt. Dabei wird der im Hörgerät momentan verwendete Parametersatz entsprechend abgeändert bzw. entsprechende Filterungen durchgeführt.
  • Die vorliegende Erfindung wird nun anhand der beigefügten Zeichnungen näher erläutert, in denen zeigen:
  • FIG 1
    ein Blockschaltbild zum Verfahren gemäß dem Stand der Technik;
    FIG 2
    ein Blockschaltbild des erfindungsgemäßen Verfahrens;
    FIG 3
    eine prinzipielle Darstellung eines Hörgeräts mit Fernbedienung zum Eingeben einer Hörsituation in einem ersten Schritt; und
    FIG 4
    die Situation des Hörgeräts gemäß FIG 3 während der Trainingsphase.
  • Das nachfolgend näher beschriebene Ausführungsbeispiel stellt eine bevorzugte Ausführungsform der vorliegenden Erfindung dar. Zum besseren Verständnis der Erfindung wird jedoch zunächst das Verfahren zum Nachtraining gemäß dem Stand der Technik anhand von FIG 1 nochmals näher erläutert.
  • Der Hörgeräteträger bzw. User 1 befindet sich, wie in FIG 1 dargestellt, in einer speziellen akustischen Situation, in der dem Hörgerät ein akustisches Eingangssignal 2 zur Verfügung steht. Da das Hörgerät für den Hörgeräteträger 1 subjektiv nicht optimal eingestellt ist, nimmt er ein Nachtraining vor. Dazu klassifiziert er das Geräusch und teilt dem Hörgerät die entsprechende sehr allgemeine Hörsituation bzw. Hörsituationskennung, z. B. "Sprache in Störgeräusch", mit. Jeder dieser Hörsituationen 3 ist jeweils eine Vielzahl an Parametersätzen 4 zugeordnet. Aufgrund der ausgewählten Hörsituation 3 hat der Hörgeräteträger 1 beispielsweise sieben Parametersätze zur Auswahl. Er kann nun denjenigen Parametersatz 4 auswählen, mit dem das Hörgerät so eingestellt ist, dass es in dieser akustischen Situation den subjektiv besten Klang erzeugt.
  • Ein neuronales Netz 5 lernt den gewünschten Parametersatz 4 für das anliegende akustische Eingangssignal 2, so dass es diesen Parametersatz 4 auch für eine ähnliche akustische Situation nach der Trainingsphase wieder wählen wird.
  • Die subjektive Beurteilung der Klänge, hervorgerufen durch die unterschiedlichen Parametersätze für die Hörgeräteeinstellung, ist für den Hörgeräteträger 1 jedoch sehr schwierig, da dies viel Detailwissen über die Auswirkungen der Hörgeräteparameter voraussetzt.
  • Gemäß der vorliegenden Erfindung soll daher vom Hörgerät nicht die Verwendung spezieller Parametersätze, sondern lediglich das Erkennen der augenblicklichen Situation trainiert werden. Dies erfolgt entsprechend dem Verfahren von FIG 2. Auch hier erhält der Hörgeräteträger bzw. User 1 das akustische Eingangssignal 2. Zum Nachtraining des neuronalen Netzes 5 im Hörgerät muss der Hörgeräteträger 1 die akustische Situation, in der er sich momentan befindet, lediglich einer von einer Vielzahl von vorgegebenen, spezifischen Hörsituationen 3' zuordnen. Die Anzahl der spezifischen Hörsituationen 3' ist im Fall der vorliegenden Erfindung üblicherweise größer als die Anzahl der allgemeinen Hörsituationen 3 gemäß FIG 1, da sie von vorne herein differenzierter sein sollen. Der Grund hierfür liegt darin, dass die allgemeine Hörsituation "Sprache in Störgeräusch" beispielsweise die spezielle Hörsituation "eigene Stimme" beinhaltet.
  • Das neuronale Netz 5 lernt damit nicht die Zuordnung eines Parametersatzes zu dem akustischen Eingangssignal 2, sondern die Zuordnung einer differenzierten Hörsituation bzw. einer Hörsituationskennung 3' zu dem akustischen Eingangssignal 2 (vgl. Pfeile mit durchgezogenen Linien in FIG 2). Dies bedeutet, dass das neuronale Netz im Gegensatz zum Stand der Technik auf einer höheren Ebene lernt. An dem Beispiel der Hörsituation "eigene Stimme im eigenen Auto" sei dies näher erläutert. Nach dem Stand der Technik wird dieser komplexen Situation ein fester Parametersatz ausgehend beispielsweise von der Parametersatzgruppe "Sprache in Störgeräusch" zugeordnet. Da nur eine Anzahl an Parametersätzen zur Auswahl für den Hörgeräteträger für derartige Situationen "Sprache in Störgeräusch" sinnvoll ist, ist sicherlich keiner der zur Verfügung stehenden Parametersätze für die eigene Stimme und zusätzlich für das eigene Auto optimiert.
  • Erfindungsgemäß wird dagegen die Situation "eigene Stimme" und die weitere Situation "im eigenen Auto" getrennt gelernt. Diese Hörsituationen nehmen jeweils spezifischen Einfluss auf die komplexe Signalverarbeitung. So wird beispielsweise bei der Situation "eigene Stimme" eine spezifische Verstärkung, eventuell gekoppelt mit einer speziellen Einstellung der Richtwirkung des Hörgeräts, und bei der Situation "im eigenen Auto" eine wiederum sehr spezifische Störgeräuschunterdrückung im Hörgerät veranlasst.
  • Besonders vorteilhaft ist, dass die eigene Stimme vom Hörgerät gelernt werden kann. Dies erfolgt dadurch, dass das akustische Eingangssignal mit der eigenen Stimme einer speziellen Verarbeitung unterzogen wird und entsprechende Parameter für das Hörgerät spezifisch gesetzt und der Hörsituation "eigene Stimme" zugeordnet werden. Ähnliches gilt für das Lernen beispielsweise der Hörsituation "eigenes Auto", wodurch eine sehr spezifische Störgeräuschunterdrückung erzielt werden kann. Es werden hier also beim Lernen nicht nur das Eingangssignal einer Hörsituation zugeordnet, sondern es findet auch eine sehr spezifische Ermittlung von Parametern, wie beispielsweise Filter- oder Verstärkungsparameter, statt.
  • Beim Gebrauch des Hörgeräts nach dem Nachtraining wird das neuronale Netz 5 ein akustisches Eingangssignal 2 einer oder mehreren spezifischen Hörsituationskennungen 3' zuweisen, so dass der momentan geltende Parametersatz 4' (einschließlich Filterparameter) entsprechend beeinflusst wird. Eine komplexe Signalverarbeitungseinheit 6 z. B. mit adaptivem Richtmikrofon wird die Signalverarbeitung auf der Basis des beeinflussten Parametersatzes 4' durchführen. Falls das neuronale Netz gemäß dem obigen Beispiel nun das Eingangssignal "eigene Stimme im eigenen Auto" erhält, weist es diesem sowohl die Hörsituationskennung "eigene Stimme" als auch die Hörsituationskennung "im eigenen Auto" zu, so dass der aktuelle Parametersatz beispielsweise hinsichtlich der spezifischen Verstärkung für die eigenen Stimme und bezüglich der spezifischen Filterung zur Unterdrückung der Störgeräusche des eigenen Autos variiert oder ergänzt wird.
  • Nachfolgend werden zwei konkrete Anwendungsbeispiele der vorliegenden Erfindung aufgezeigt:
  • Beispiel 1: Ein adaptives Richtmikrofon richtet sich auf die Richtung aus, aus der der maximale Nutzschall, z. B. ein Sprachsignal, einfällt. Unterhält sich der Hörgeräteträger mit einer neben ihm herlaufenden Person, sollte sich das Richtmikrofon auf den Gesprächespartner einstellen, d. h. auf eine maximale Verstärkung in einem Winkel um ca. 90°. Sobald jedoch der Hörgeräteträger selbst spricht, kommt das Nutzschallsignal aus dem eigenen Mund, d. h. aus einem Winkel von 0°. Die eigene Sprache zieht somit die Richtmikrofoncharakteristik vom eigentlichen Gesprächspartner weg und zwar üblicherweise mit einer gewissen zeitlichen Verzögerung. Wenn das Hörgerät hingegen auf die eigene Stimme trainiert ist, und somit der adaptiven Mikrofonsteuerung bekannt ist, welche akustischen Eigenschaften zur eigenen Stimme gehören, können Signale, die als "eigene Stimme" klassifiziert werden, für die Nachführung der Richtcharakteristik unberücksichtigt bleiben. Demgegenüber wäre die Einstellmöglichkeit des Hörgeräts nach dem Stand der Technik von EP 0 814 634 A1 gemäß FIG 1, wonach der Hörgeräteträger mehrere Parametersätze beurteilen müsste, aufgrund der Dynamik und Adaptivität der Vorgänge wenig Erfolg versprechend. Insbesondere könnte die eigene Stimme nicht erkannt werden.
  • Beispiel 2: Ein Störgeräuschunterdrückungsverfahren kann speziell auf ein komplexes, zeitlich variables Geräusch trainiert werden. Dieses Geräusch wird dann optimal unterdrückt, obwohl es eventuell ähnliche spektrale Komponenten oder ein Modulationsspektrum wie Sprache, die als Nutzsignal weiterverarbeitet werden soll, aufweist. Durch individuelles Training auf diese akustische Situation, z. B. die oben erwähnte Situation "im Auto", kann das Störgeräuschunterdrückungsverfahren automatisch optimal eingestellt werden, indem beispielsweise spezielle Gewichtungsfaktoren für einzelne spektrale Bänder eingestellt werden oder das dynamische Verhalten optimal auf die Störgeräuschcharakteristik angepasst wird. Auch in diesem Fall sind die Unterschiede zwischen den Einstellungen der dynamischen Störgeräuschunterdrückung nur schwer direkt zu bewerten, die Situation hingegen sehr zuverlässig.
  • In gewissen akustischen Situationen kann es vorteilhaft sein, wenn zusätzlich zu dem erfindungsgemäßen Nachtraining ein Nachtraining gemäß dem Stand der Technik unter Beurteilung verschiedener Parametersätze durch den Hörgeräteträger erfolgt.
  • Das Nachtraining, wie es sich für den Hörgeräteträger darstellt, sei nun anhand der FIG 3 und 4 näher erläutert. Der Hörgeräteträger will beispielsweise die Situation "eigene Stimme" in sein Hörgerät 10 eintrainieren. Dazu schließt er über eine Leitung 11 eine Fernbedienung 12 an das Hörgerät 10 an. Die Fernbedienung weist als Bedienelement einen Taster 13 auf.
  • In dem Klassifikator sind mehrere Hörsituationen abgelegt. Der Hörgeräteträger weiß, dass die Hörsituation "eigene Stimme" beispielsweise der Situation 3 entspricht. Daher drückt er den Taster 13 dreimal, um dem Klassifikator mitzuteilen, dass Situation 3 nachtrainiert werden soll.
  • In einem anschließenden Schritt wird ein akustisches Signal, hier die eigene Stimme, zur Aufnahme für das Hörgerät 10 gemäß FIG 4 dargeboten. Der Hörgeräteträger muss nun dem Hörgerät 10 den Beginn und das Ende der Trainingsphase mitteilen. Dies erfolgt, indem er den Taster 13 gedrückt hält, während er selbst spricht. Dies bedeutet, dass er für beide Schritte des Trainings nur ein einziges Bedienelement 13 verwenden muss. Wenn sehr viele Hörsituationskennungen vorliegen, kann ein anderes Design bedienerfreundlicher sein, z. B. mit einem Display und einem Regler (Schieberegler, Trackball, etc.), mit dem die entsprechende Situation schnell angewählt werden kann.
  • Das tatsächliche Nachtraining des Hörgeräts 10 kann während der Darbietung des akustischen Signals 14 erfolgen. Alternativ wird das akustische Signal 14 im Hörgerät aufgezeichnet und nach der Aufzeichnung ausgewertet bzw. der gewählten Hörsituation aufgrund charakteristischer akustischer Eigenschaften zugeordnet. Im Falle des Online-Nachtrainings ist eine dauerhafte oder temporäre Speicherung des akustischen Signals 14 nicht unbedingt notwendig.
  • Da dem Hörgerät 10 nur die Information über die momentane Situation mitgeteilt werden muss, ist im Unterschied zum Stand der Technik gemäß EP 0 814 634 A1 eine externe Bedieneinheit nicht unbedingt notwendig. Sie kann jedoch entsprechend den FIG 3 und 4 beispielsweise aus Komfortgründen verwendet werden. Es kann jedoch auch ein Aufnahmeknopf am Hörgerät selbst angebracht sein.
  • Durch das Nachtraining lässt sich die Erkennungsrate des Klassifikators für bestimmte Situationen deutlich gegenüber der Voreinstellung erhöhen, so dass sich das Hörgerät zuverlässiger auf diese Situation einstellt. Durch das selbständige Starten und Beenden der Nachtrainingsphase durch den Hörgeräteträger können Situationen ferner zuverlässig nachtrainiert werden, da der Hörgeräteträger selbst entscheidet, wann das Signal der Situation zugeordnet werden kann.

Claims (24)

  1. Verfahren zum Nachtrainieren eines Hörgeräts (10) durch
    - Bereitstellen eines akustischen Eingangssignals (2),
    - Bereitstellen mehrerer Hörsituationskennungen (3') und
    - Zuordnen des akustischen Eingangssignals (2) zu einer der Hörsituationskennungen (3') durch einen Hörgeräteträger (1),
    gekennzeichnet durch
    - automatisches Lernen der Zuordnung des akustischen Eingangssignals (2) zu der einen der Hörsituationskennungen (3').
  2. Verfahren nach Anspruch 1, wobei eine der Hörsituationskennungen (3') eine Hörsituation der Darbietung der eigenen Stimme oder des Geräusches des eigenen Autos des Hörgeräteträgers (1) kennzeichnet, so dass nach dem automatischen Lernen die eigene Stimme oder des Geräusches des eigenen Autos erkannt werden kann.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Lernen während der Darbietung des akustischen Eingangssignals (2) erfolgt.
  4. Verfahren nach Anspruch 1 oder 2, wobei das Lernen nach der Darbietung des akustischen Eingangssignals (2) erfolgt.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Starten und Stoppen des Nachtrainierens und das Zuordnen des akustischen Eingangssignals (2) über eine Fernbedienung (12) erfolgt.
  6. Verfahren nach Anspruch 5, wobei die Fernbedienung (12) drahtlos mit dem Hörgerät (10) kommuniziert.
  7. Verfahren nach einem der Ansprüche 1 bis 4, wobei die Bedienung des Hörgeräts (10) zum Nachtrainieren verbal erfolgt.
  8. Verfahren nach Anspruch 7, wobei die Bedienung des Hörgeräts (10) mittels eines oder mehrerer Schlüsselworte erfolgt.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei das akustische Eingangssignal (2) ein manuell oder automatisch aufbereitetes Sprachsignal umfasst.
  10. Hörgerät mit
    - einer Aufnahmeeinrichtung zum Aufnehmen eines akustischen Eingangssignals (2),
    - einer Speichereinrichtung zum Speichern mehrerer Hörsituationskennungen (3') und
    - einer Eingabeeinrichtung (12) zum Zuordnen des akustischen Eingangssignals (2) zu einer der Hörsituationskennungen (3') durch einen Hörgeräteträger,
    gekennzeichnet durch
    - eine Lerneinrichtung (5) zum automatischen Lernen der Zuordnung des akustischen Eingangssignals (2) zu der einen der Hörsituationskennungen (3') durch die Eingabeeinrichtung (12).
  11. Hörgerät nach Anspruch 10, wobei eine der Hörsituationskennungen (3') die Hörsituation der Darbietung der eigenen Stimme oder des Geräusches des eigenen Autos des Hörgeräteträgers kennzeichnet, so dass nach dem automatischen Lernen die eigene Stimme oder des Geräusches des eigenen Autos erkannt werden kann.
  12. Hörgerät nach Anspruch 10 oder 11, wobei das Lernen in der Lerneinrichtung (5) während des Aufnehmens des akustischen Eingangssignals (2) in der Aufnahmeeinrichtung durchführbar ist.
  13. Hörgerät nach einem der Ansprüche 10 bis 12, wobei das Lernen nach der Aufnahme des akustischen Eingangssignals (2) in der Aufnahmeeinrichtung in der Lerneinrichtung (5) oder in einer externen Einrichtung mit anschließender Übertragung in das Hörgerät durchführbar ist.
  14. Hörgerät nach einem der Ansprüche 10 bis 13, wobei die Eingabeeinrichtung (12) zum Starten und Stoppen der Aufzeichnung oder des Nachtrainierens verwendbar ist.
  15. Hörgerät nach einem der Ansprüche 10 bis 14, wobei die Eingabeeinrichtung (12) eine externe Fernbedienung aufweist.
  16. Hörgerät nach Anspruch 15, wobei mit der Fernbedienung drahtlose Kommunikation mit dem Hörgerät durchführbar ist.
  17. Hörgerät nach Anspruch 15 oder 16, wobei die Fernbedienung ausschließlich für das Nachtrainieren des Hörgeräts ausgestaltet ist.
  18. Hörgerät nach einem der Ansprüche 10 bis 16, wobei die Fernbedienung als Mobilfunkgerät ausgestaltet ist.
  19. Hörgerät nach einem der Ansprüche 10 bis 18, wobei die Eingabeeinrichtung (12) eine programmierbare Recheneinheit, insbesondere einen PC, umfasst.
  20. Hörgerät nach einem der Ansprüche 10 bis 19, wobei die Eingabeeinrichtung (12) verbal bedienbar ist.
  21. Hörgerät nach Anspruch 20, wobei die Eingabeeinrichtung (12) mittels eines oder mehrerer Schlüsselworte bedienbar ist.
  22. Hörgerät nach einem der Ansprüche 10 bis 21, wobei das akustische Eingangssignal (2) ein manuell oder automatisch aufbereitetes Sprachsignal umfasst.
  23. Hörgerät nach einem der Ansprüche 10 bis 22, das eine Signalverarbeitungseinrichtung aufweist, deren Parametersatz (4') mit Hilfe der Lerneinrichtung (5) durch Zuordnen des akustischen Eingangssignals (2) zu einer gelernten Hörsituationskennung (3') beeinflussbar ist.
  24. Hörgerät nach Anspruch 23, wobei mindestens ein Parameter des Parametersatzes (4') durch die Lerneinrichtung (5) beim automatischen Zuordnen variierbar und/oder ergänzbar ist.
EP04022104A 2003-10-10 2004-09-16 Verfahren zum Nachtrainieren und Betreiben eines Hörgeräts und entsprechendes Hörgerät Revoked EP1523219B1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10347211A DE10347211A1 (de) 2003-10-10 2003-10-10 Verfahren zum Nachtrainieren und Betreiben eines Hörgeräts und entsprechendes Hörgerät
DE10347211 2003-10-10

Publications (3)

Publication Number Publication Date
EP1523219A2 EP1523219A2 (de) 2005-04-13
EP1523219A3 EP1523219A3 (de) 2007-08-08
EP1523219B1 true EP1523219B1 (de) 2008-08-20

Family

ID=34306363

Family Applications (1)

Application Number Title Priority Date Filing Date
EP04022104A Revoked EP1523219B1 (de) 2003-10-10 2004-09-16 Verfahren zum Nachtrainieren und Betreiben eines Hörgeräts und entsprechendes Hörgerät

Country Status (6)

Country Link
US (1) US7742612B2 (de)
EP (1) EP1523219B1 (de)
AT (1) ATE406073T1 (de)
AU (1) AU2004218632B2 (de)
DE (2) DE10347211A1 (de)
DK (1) DK1523219T3 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106714062A (zh) * 2016-11-30 2017-05-24 天津大学 一种基于bp人工神经网络的数字助听器智能验配算法

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070276285A1 (en) * 2003-06-24 2007-11-29 Mark Burrows System and Method for Customized Training to Understand Human Speech Correctly with a Hearing Aid Device
WO2005002431A1 (en) * 2003-06-24 2005-01-13 Johnson & Johnson Consumer Companies Inc. Method and system for rehabilitating a medical condition across multiple dimensions
US20050090372A1 (en) * 2003-06-24 2005-04-28 Mark Burrows Method and system for using a database containing rehabilitation plans indexed across multiple dimensions
DE10347211A1 (de) 2003-10-10 2005-05-25 Siemens Audiologische Technik Gmbh Verfahren zum Nachtrainieren und Betreiben eines Hörgeräts und entsprechendes Hörgerät
EP1767059A4 (de) * 2004-06-14 2009-07-01 Johnson & Johnson Consumer System und verfahren zur optimierung des hörgeräts einer person
WO2005125278A2 (en) * 2004-06-14 2005-12-29 Johnson & Johnson Consumer Companies, Inc. At-home hearing aid training system and method
WO2005122730A2 (en) * 2004-06-14 2005-12-29 Johnson & Johnson Consumer Companies, Inc. At-home hearing aid tester and method of operating same
WO2005125277A2 (en) * 2004-06-14 2005-12-29 Johnson & Johnson Consumer Companies, Inc. A sytem for and method of conveniently and automatically testing the hearing of a person
US20080165978A1 (en) * 2004-06-14 2008-07-10 Johnson & Johnson Consumer Companies, Inc. Hearing Device Sound Simulation System and Method of Using the System
EP1769412A4 (de) * 2004-06-14 2010-03-31 Johnson & Johnson Consumer Audiologen-geräteschnittstellen-benutzerdatenbank zur bereitstellung auraler rehabilitierung von hörverlust über mehrere hördimensionen hinweg
US20080187145A1 (en) * 2004-06-14 2008-08-07 Johnson & Johnson Consumer Companies, Inc. System For and Method of Increasing Convenience to Users to Drive the Purchase Process For Hearing Health That Results in Purchase of a Hearing Aid
EP1767056A4 (de) * 2004-06-14 2009-07-22 Johnson & Johnson Consumer System und verfahren zum anbieten eines optimierten beschallungsdienstes für einzelpersonen an einem unternehmensort
EP1767061A4 (de) * 2004-06-15 2009-11-18 Johnson & Johnson Consumer Kostengünstige, programmierbare, zeitlich begrenzte hörgerätevorrichtung, benutzungsverfahren und system zu ihrer programmierung
US7599500B1 (en) * 2004-12-09 2009-10-06 Advanced Bionics, Llc Processing signals representative of sound based on the identity of an input element
US7319769B2 (en) * 2004-12-09 2008-01-15 Phonak Ag Method to adjust parameters of a transfer function of a hearing device as well as hearing device
DE102005032274B4 (de) * 2005-07-11 2007-05-10 Siemens Audiologische Technik Gmbh Hörvorrichtung und entsprechendes Verfahren zur Eigenstimmendetektion
EP2005791A1 (de) 2006-03-24 2008-12-24 GN Resound A/S Lernende steuerung von hörgeräteparametereinstellungen
EP1906700B1 (de) * 2006-09-29 2013-01-23 Siemens Audiologische Technik GmbH Verfahren zum zeitgesteuerten Einstellen einer Hörvorrichtung und entsprechende Hörvorrichtung
WO2008083315A2 (en) * 2006-12-31 2008-07-10 Personics Holdings Inc. Method and device configured for sound signature detection
WO2009006418A1 (en) 2007-06-28 2009-01-08 Personics Holdings Inc. Method and device for background noise mitigation
WO2008015294A2 (en) * 2007-10-02 2008-02-07 Phonak Ag Hearing system, method for operating a hearing system, and hearing system network
DE102007056466A1 (de) * 2007-11-22 2009-05-28 Myworldofhearing E. K. Verfahren zur individuellen Anpassung eines Hörgeräts
WO2008084116A2 (en) * 2008-03-27 2008-07-17 Phonak Ag Method for operating a hearing device
US9129291B2 (en) * 2008-09-22 2015-09-08 Personics Holdings, Llc Personalized sound management and method
DE102009007074B4 (de) 2009-02-02 2012-05-31 Siemens Medical Instruments Pte. Ltd. Verfahren und Hörvorrichtung zum Einstellen eines Hörgeräts aus aufgezeichneten Daten
USRE48462E1 (en) * 2009-07-29 2021-03-09 Northwestern University Systems, methods, and apparatus for equalization preference learning
EP2306756B1 (de) * 2009-08-28 2011-09-07 Siemens Medical Instruments Pte. Ltd. Verfahren zur Feinanpassung eines Hörhilfegerätes sowie Hörhilfegerät
DE102010018877A1 (de) * 2010-04-30 2011-06-30 Siemens Medical Instruments Pte. Ltd. Verfahren und Anordnung zur Sprachsteuerung von Hörgeräten
EP2472907B1 (de) 2010-12-29 2017-03-15 Oticon A/S Hörsystem mit einer Alarmvorrichtung und Hörvorrichtung
US9814879B2 (en) 2013-05-13 2017-11-14 Cochlear Limited Method and system for use of hearing prosthesis for linguistic evaluation
US9883300B2 (en) * 2015-02-23 2018-01-30 Oticon A/S Method and apparatus for controlling a hearing instrument to relieve tinitus, hyperacusis, and hearing loss
US10129664B2 (en) * 2015-04-15 2018-11-13 Starkey Laboratories, Inc. User adjustment interface using remote computing resource
US10492008B2 (en) 2016-04-06 2019-11-26 Starkey Laboratories, Inc. Hearing device with neural network-based microphone signal processing
US20170311095A1 (en) 2016-04-20 2017-10-26 Starkey Laboratories, Inc. Neural network-driven feedback cancellation
WO2019099699A1 (en) * 2017-11-15 2019-05-23 Starkey Laboratories, Inc. Interactive system for hearing devices
CN112369046B (zh) 2018-07-05 2022-11-18 索诺瓦公司 用于调整听力设备的补充声音种类
US10795638B2 (en) * 2018-10-19 2020-10-06 Bose Corporation Conversation assistance audio device personalization
CN110473567B (zh) * 2019-09-06 2021-09-14 上海又为智能科技有限公司 基于深度神经网络的音频处理方法、装置及存储介质
DE102019216100A1 (de) 2019-10-18 2021-04-22 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät
DE102019218808B3 (de) * 2019-12-03 2021-03-11 Sivantos Pte. Ltd. Verfahren zum Trainieren eines Hörsituationen-Klassifikators für ein Hörgerät
US11601765B2 (en) * 2019-12-20 2023-03-07 Sivantos Pte. Ltd. Method for adapting a hearing instrument and hearing system therefor
US20220312126A1 (en) * 2021-03-23 2022-09-29 Sonova Ag Detecting Hair Interference for a Hearing Device
DE102021204974A1 (de) 2021-05-17 2022-11-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Vorrichtung und Verfahren zum Bestimmen von Audio-Verarbeitungsparametern

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU610705B2 (en) 1988-03-30 1991-05-23 Diaphon Development A.B. Auditory prosthesis with datalogging capability
US4972487A (en) 1988-03-30 1990-11-20 Diphon Development Ab Auditory prosthesis with datalogging capability
US5303306A (en) * 1989-06-06 1994-04-12 Audioscience, Inc. Hearing aid with programmable remote and method of deriving settings for configuring the hearing aid
DK0681411T3 (da) * 1994-05-06 2003-05-19 Siemens Audiologische Technik Programmerbart høreapparat
DE4419901C2 (de) * 1994-06-07 2000-09-14 Siemens Audiologische Technik Hörhilfegerät
EP0712261A1 (de) * 1994-11-10 1996-05-15 Siemens Audiologische Technik GmbH Programmierbares Hörgerät
DE59410236D1 (de) * 1994-11-10 2003-03-06 Siemens Audiologische Technik Programmierbares Hörgerät
SE504091C2 (sv) 1995-03-06 1996-11-11 Expandi Systems Ab Anordning vid självexpanderande länsor
EP0814636A1 (de) 1996-06-21 1997-12-29 Siemens Audiologische Technik GmbH Hörgerät
DK0814634T3 (da) * 1996-06-21 2003-02-03 Siemens Audiologische Technik Programmerbart høreapparatsystem og fremgangsmåde til fastsættelse af optimale parametersæt i et høreapparat
US6674867B2 (en) * 1997-10-15 2004-01-06 Belltone Electronics Corporation Neurofuzzy based device for programmable hearing aids
AU2001246395A1 (en) 2000-04-04 2001-10-15 Gn Resound A/S A hearing prosthesis with automatic classification of the listening environment
AU2001221399A1 (en) 2001-01-05 2001-04-24 Phonak Ag Method for determining a current acoustic environment, use of said method and a hearing-aid
DE10114015C2 (de) 2001-03-22 2003-02-27 Siemens Audiologische Technik Verfahren zum Betrieb eines Hörhilfe- und/oder Gehörschutzgerätes sowie Hörhilfe- und/oder Gehörschutzgerät
US20030032681A1 (en) * 2001-05-18 2003-02-13 The Regents Of The University Of Clifornia Super-hydrophobic fluorine containing aerogels
DE10152197B4 (de) 2001-10-23 2009-07-09 Siemens Audiologische Technik Gmbh Verfahren zum Programmieren eines Hörgerätes, Programmiergerät sowie Fernbedienung für das Hörgerät
US7158931B2 (en) * 2002-01-28 2007-01-02 Phonak Ag Method for identifying a momentary acoustic scene, use of the method and hearing device
EP2866474A3 (de) * 2002-04-25 2015-05-13 GN Resound A/S Anpassungsverfahren und Hörprothese auf Basis von Verlustdaten des Signal-Rausch-Verhältnisses
US20040190737A1 (en) * 2003-03-25 2004-09-30 Volker Kuhnel Method for recording information in a hearing device as well as a hearing device
US20060078139A1 (en) * 2003-03-27 2006-04-13 Hilmar Meier Method for adapting a hearing device to a momentary acoustic surround situation and a hearing device system
DE10347211A1 (de) 2003-10-10 2005-05-25 Siemens Audiologische Technik Gmbh Verfahren zum Nachtrainieren und Betreiben eines Hörgeräts und entsprechendes Hörgerät

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106714062A (zh) * 2016-11-30 2017-05-24 天津大学 一种基于bp人工神经网络的数字助听器智能验配算法
CN106714062B (zh) * 2016-11-30 2020-02-18 天津大学 一种基于bp人工神经网络的数字助听器智能验配方法

Also Published As

Publication number Publication date
DE502004007878D1 (de) 2008-10-02
AU2004218632B2 (en) 2009-04-09
EP1523219A3 (de) 2007-08-08
US7742612B2 (en) 2010-06-22
EP1523219A2 (de) 2005-04-13
AU2004218632A1 (en) 2005-04-28
DK1523219T3 (da) 2009-01-05
DE10347211A1 (de) 2005-05-25
ATE406073T1 (de) 2008-09-15
US20050105750A1 (en) 2005-05-19

Similar Documents

Publication Publication Date Title
EP1523219B1 (de) Verfahren zum Nachtrainieren und Betreiben eines Hörgeräts und entsprechendes Hörgerät
DE102019206743A1 (de) Hörgeräte-System und Verfahren zur Verarbeitung von Audiosignalen
DE102019200954A1 (de) Signalverarbeitungseinrichtung, System und Verfahren zur Verarbeitung von Audiosignalen
EP3451705B1 (de) Verfahren und vorrichtung zum schnellen erkennen der eigenen stimme
EP3445067B1 (de) Verfahren zum betrieb eines hörgeräts und hörgerät
EP2081406B1 (de) Verfahren und Vorrichtung zur Konfiguration von Einstellmöglichkeiten an einem Hörgerät
EP0681411A1 (de) Programmierbares Hörgerät
WO2001020965A2 (de) Verfahren zur bestimmung einer momentanen akustischen umgebungssituation, anwendung des verfharens und ein hörgerät
EP2306756A1 (de) Verfahren zur Feinanpassung eines Hörhilfegerätes sowie Hörhilfegerät
EP1453356A2 (de) Verfahren zum Einstellen eines Hörsystems und entsprechendes Hörsystem
DE102019216100A1 (de) Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät
EP3840418A1 (de) Verfahren zur anpassung eines hörinstruments und zugehöriges hörsystem
DE102019200956A1 (de) Signalverarbeitungseinrichtung, System und Verfahren zur Verarbeitung von Audiosignalen
DE102010041740A1 (de) Verfahren zur Signalverarbeitung in einem Hörhilfegerät sowie Hörhilfegerät
CH691211A5 (de) Schaltung zum Betrieb eines Hörgerätes sowie Hörgerät mit einer solchen Schaltung.
EP3629601A1 (de) Verfahren zur verarbeitung von mikrofonsignalen in einem hörsystem sowie hörsystem
EP3386215B1 (de) Verfahren zum betrieb einer hörvorrichtung und hörvorrichtung
EP3062249A1 (de) Verfahren zur ermittlung von trägerspezifischen nutzungsdaten eines hörgeräts, verfahren zur anpassung von hörgeräteeinstellungen eines hörgeräts, hörgerätesystem und einstelleinheit für ein hörgerätesystem
EP2070384B1 (de) Hörvorrichtung gesteuert durch ein perzeptives modell und entsprechendes verfahren
EP2302952B1 (de) Selbstanpassung eines Hörhilfegerätes
EP3873108A1 (de) Hörsystem mit mindestens einem im oder am ohr des nutzers getragenen hörinstrument sowie verfahren zum betrieb eines solchen hörsystems
EP2172062A1 (de) Verfahren zum anpassen eines hörgeräts mit hilfe eines perzeptiven modells
DE102019203786A1 (de) Hörgerätesystem
EP1841286A2 (de) Hörhilfegerät mit adaptiven Startwerten von Parametern
EP1303166B1 (de) Verfahren zum Betrieb eines Hörgerätes und Anordung mit einem Hörgerät

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL HR LT LV MK

PUAL Search report despatched

Free format text: ORIGINAL CODE: 0009013

AK Designated contracting states

Kind code of ref document: A3

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL HR LT LV MK

17P Request for examination filed

Effective date: 20071106

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

RTI1 Title (correction)

Free format text: METHOD FOR TRAINING AND OPERATING A HEARING AID AND CORRESPONDING HEARING AID

AKX Designation fees paid

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PL PT RO SE SI SK TR

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PL PT RO SE SI SK TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: NV

Representative=s name: SIEMENS SCHWEIZ AG

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REF Corresponds to:

Ref document number: 502004007878

Country of ref document: DE

Date of ref document: 20081002

Kind code of ref document: P

REG Reference to a national code

Ref country code: DK

Ref legal event code: T3

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20081201

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20080820

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20080820

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20080820

BERE Be: lapsed

Owner name: SIEMENS AUDIOLOGISCHE TECHNIK G.M.B.H.

Effective date: 20080930

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: IT

Payment date: 20080924

Year of fee payment: 5

REG Reference to a national code

Ref country code: CH

Ref legal event code: PCAR

Free format text: SIEMENS SCHWEIZ AG;INTELLECTUAL PROPERTY FREILAGERSTRASSE 40;8047 ZUERICH (CH)

REG Reference to a national code

Ref country code: IE

Ref legal event code: FD4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20081120

Ref country code: MC

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20080930

Ref country code: IE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20080820

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20080820

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090120

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20080820

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20080820

PLBI Opposition filed

Free format text: ORIGINAL CODE: 0009260

26 Opposition filed

Opponent name: OTICON A/S(DK)/WIDEX A/S(DK)/ GN RESOUND A/S(DK)/P

Effective date: 20090520

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20080930

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20080820

PLAX Notice of opposition and request to file observation + time limit sent

Free format text: ORIGINAL CODE: EPIDOSNOBS2

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20080916

PLBB Reply of patent proprietor to notice(s) of opposition received

Free format text: ORIGINAL CODE: EPIDOSNOBS3

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20081120

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20080820

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20080916

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20080820

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090221

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20080820

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20081121

RDAF Communication despatched that patent is revoked

Free format text: ORIGINAL CODE: EPIDOSNREV1

APBM Appeal reference recorded

Free format text: ORIGINAL CODE: EPIDOSNREFNO

APBP Date of receipt of notice of appeal recorded

Free format text: ORIGINAL CODE: EPIDOSNNOA2O

APAH Appeal reference modified

Free format text: ORIGINAL CODE: EPIDOSCREFNO

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20090916

APBQ Date of receipt of statement of grounds of appeal recorded

Free format text: ORIGINAL CODE: EPIDOSNNOA3O

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: CH

Payment date: 20131210

Year of fee payment: 10

Ref country code: DE

Payment date: 20131120

Year of fee payment: 10

REG Reference to a national code

Ref country code: DE

Ref legal event code: R064

Ref document number: 502004007878

Country of ref document: DE

Ref country code: DE

Ref legal event code: R103

Ref document number: 502004007878

Country of ref document: DE

APBU Appeal procedure closed

Free format text: ORIGINAL CODE: EPIDOSNNOA9O

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DK

Payment date: 20140919

Year of fee payment: 11

RDAG Patent revoked

Free format text: ORIGINAL CODE: 0009271

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: PATENT REVOKED

REG Reference to a national code

Ref country code: CH

Ref legal event code: PLX

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20140908

Year of fee payment: 11

27W Patent revoked

Effective date: 20141006

GBPR Gb: patent revoked under art. 102 of the ep convention designating the uk as contracting state

Effective date: 20141006

REG Reference to a national code

Ref country code: DE

Ref legal event code: R107

Ref document number: 502004007878

Country of ref document: DE

Effective date: 20150115

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF THE APPLICANT RENOUNCES

Effective date: 20080820

Ref country code: CH

Free format text: LAPSE BECAUSE OF THE APPLICANT RENOUNCES

Effective date: 20080820

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20140917

Year of fee payment: 11

REG Reference to a national code

Ref country code: AT

Ref legal event code: MA03

Ref document number: 406073

Country of ref document: AT

Kind code of ref document: T

Effective date: 20141006

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 502004007878

Country of ref document: DE

Representative=s name: FDST PATENTANWAELTE FREIER DOERR STAMMLER TSCH, DE

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 502004007878

Country of ref document: DE

Representative=s name: FDST PATENTANWAELTE FREIER DOERR STAMMLER TSCH, DE

Ref country code: DE

Ref legal event code: R081

Ref document number: 502004007878

Country of ref document: DE

Owner name: SIVANTOS GMBH, DE

Free format text: FORMER OWNER: SIEMENS AUDIOLOGISCHE TECHNIK GMBH, 91058 ERLANGEN, DE