WO2024104945A1 - Verfahren zum betrieb eines hörgeräts sowie hörgerät - Google Patents

Verfahren zum betrieb eines hörgeräts sowie hörgerät Download PDF

Info

Publication number
WO2024104945A1
WO2024104945A1 PCT/EP2023/081579 EP2023081579W WO2024104945A1 WO 2024104945 A1 WO2024104945 A1 WO 2024104945A1 EP 2023081579 W EP2023081579 W EP 2023081579W WO 2024104945 A1 WO2024104945 A1 WO 2024104945A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
scene
voice
hearing aid
setting
Prior art date
Application number
PCT/EP2023/081579
Other languages
English (en)
French (fr)
Inventor
Maja Serman
Ulrich Giese
Claudia Pischel
Original Assignee
Sivantos Pte. Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sivantos Pte. Ltd. filed Critical Sivantos Pte. Ltd.
Publication of WO2024104945A1 publication Critical patent/WO2024104945A1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/50Customised settings for obtaining desired overall acoustical characteristics
    • H04R25/505Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest

Definitions

  • the invention relates to a method for operating a hearing aid, especially a method for setting an OV processing unit of a hearing aid.
  • the invention further relates to a corresponding hearing aid.
  • a hearing aid is used to provide care for a hearing-impaired user and thus to compensate for the corresponding hearing loss of such a user.
  • the hearing aid usually has a microphone, a signal processing unit and a receiver.
  • the microphone generates an input signal which is fed to the signal processing unit.
  • the signal processing unit modifies the input signal and thereby generates an output signal.
  • the input signal is amplified with a frequency-dependent gain factor, for example according to an audiogram of the user.
  • the output signal is finally output to the user via the receiver.
  • sound signals from the environment are output to the user in a modified form.
  • the input signal and the output signal are each electrical signals.
  • the sound signals from the environment and the sound signals output by the receiver are, in contrast, acoustic signals.
  • the user speaks his or her own voice is reflected in the input signal and is then output to the user as part of the output signal.
  • This reproduction of the user's own voice by the hearing aid is of particular importance and regularly determines the user's acceptance of the hearing aid. It has been shown that many users are particularly sensitive to the perception of their own voice. Accordingly, it is desirable to reproduce the user's own voice through the hearing aid as closely as possible to the user's ideas and preferences.
  • a corresponding method and a corresponding hearing aid are to be specified.
  • the method is used to operate a user's hearing aid.
  • the user has his or her own voice.
  • the operation takes place in particular during the intended use of the hearing aid by the user in everyday life and while the hearing aid is in or on the ear.
  • the hearing aid has an input transducer which generates an input signal.
  • the input transducer is preferably a microphone.
  • the hearing aid also has an analysis unit which uses the input signal to recognise a current scene, in particular an own voice scene.
  • a scene is generally the acoustic environment of the user (more precisely the hearing aid) at a given time and at a given place and is mainly characterised by one or more noise sources (e.g. speakers, machines, environment, etc.) and corresponding noise (e.g. useful noise such as speech or music, background noise, environmental noise, etc.) in the environment as well as by the acoustic properties of the environment (e.g. with/without background noise, indoors/outdoors, with reverberation/without reverberation, etc.).
  • noise sources e.g. speakers, machines, environment, etc.
  • noise e.g. useful noise such as speech or music, background noise, environmental noise, etc.
  • the analysis unit outputs a scene signal which indicates the current scene.
  • the analysis unit contains a classifier to which the input signal is fed and which then analyses the input signal, e.g. spectrally, and outputs a scene class as a result, ie as a scene signal, e.g. speech in quiet environment, speech with noise, multiple speakers, 1-to-1 conversation, music, quiet environment without speech, noise without speech, etc.
  • the hearing aid also has a signal processing unit with an OV processing unit.
  • the abbreviation OV generally means "own voice", which means the user's own voice.
  • the OV processing unit is accordingly an own voice processing unit.
  • the signal processing unit processes the input signal into an output signal.
  • the OV processing unit processes the user's own voice according to a number of OV parameters. "A number of” is generally understood to mean “one or more” or “at least one”. For example, the user's own voice is first isolated or even filtered out of the input signal, then processed and finally combined with the input signal to form the output signal. It is also possible that the input signal as a whole is processed in such a way that exactly those parts that belong to the user's own voice are processed.
  • the OV parameters are now set depending on the current scene (i.e. depending on the scene signal from the analysis unit), so that the processing of the user's own voice is scene-dependent.
  • the OV parameters influence how your own voice is affected, particularly with regard to volume, temporal dynamics and/or frequency spectrum, and accordingly specify, for example, an attenuation/amplification, frequency shift, compression, delay, etc., which is then implemented specifically for your own voice (e.g. limited to the corresponding frequency range) using the OV processing unit.
  • the hearing aid has an output converter with which the output signal is sent to the user and thus the processed voice is reproduced.
  • the output converter is preferably a receiver.
  • the input signal and the output signal are each in particular electrical signals.
  • a core idea of the present invention is scene-dependent processing (or modification) of the user's own voice.
  • a first step the current scene is first recognized and then in a second step a corresponding setting for the OV parameters is selected and set so that the OV processing unit processes the user's own voice differently in different scenes, namely depending on the OV parameters, which are set depending on the scene.
  • a corresponding setting is stored for each of several scenes, which is then activated when the current scene corresponds to the corresponding scene.
  • the user's own voice is also output differently in different scenes, namely each time adapted as optimally as possible to the respective scene.
  • the invention is based in particular on the observation that the requirements for the reproduction of one's own voice, e.g. with regard to intensity, frequency spectrum and/or temporal dynamics, are different for different scenes, i.e. in different environments and different communication situations. Many users react particularly sensitively to the reproduction of their own voice and non-optimal reproduction often leads to rejection of the hearing aid.
  • This single, specific scene is regularly "one's own voice in a quiet environment", i.e. the user speaks while the entire environment is quiet (i.e. "at rest”, e.g.
  • the volume, frequency spectrum and/or temporal dynamics of a user vary both physically and psychologically (depending on the user's personality, the type of communication, self-perception of one's own voice, etc.) depending on whether the user is speaking in a quiet environment or as one of several people in a group. There are various reasons for this. From an evolutionary perspective, people regularly want to avoid their own voice covering up another, potentially interesting, dangerous and generally relevant sound.
  • humans in particular are sensitive to how their own voice is perceived by other people and a person changes his or her voice (volume, frequency spectrum, temporal dynamics, etc.) depending on the speaking situation, generally depending on the current scene. For example, your own voice is different (e.g. louder) in a scene in which you are communicating with several people at the same time, compared to a scene in which you are communicating with just one person.
  • a single setting determined in a scene with a quiet environment as described above is therefore not optimal for other, sometimes very different scenes, especially in those that contain a communication situation in which other, unfamiliar voices are also present.
  • This problem is solved here by the scene-dependent setting of the OV processing unit, because this provides individual, optimal settings for several different scenes, which are then activated, i.e. used, when the respective scene is present.
  • the hearing aid suitably has a memory in which several settings for the OV parameters are stored, namely one setting for each scene that can be recognized by the analysis unit.
  • the settings are determined in advance and stored in the memory, expediently during a fitting session, e.g. a hearing aid acoustician or other specialist personnel.
  • a hearing aid acoustician or other specialist personnel e.g. a hearing aid acoustician or other specialist personnel.
  • the analysis unit distinguishes between at least two scenes in which the user's own voice is present, and thus at least two different settings are available, in particular stored, and adjustable for the OV parameters.
  • it is therefore not a question of simply switching on and off depending on the presence of the user's own voice, but of distinguishing between scenes each with its own voice but with different properties apart from that, i.e. the different processing of the user's own voice in different OV scenes (or OV situations).
  • the settings are generally only relevant for scenes in which the user speaks himself and thus his own voice is present, i.e. in so-called OV scenes. For other scenes, i.e. scenes without his own voice, i.e.
  • each of the basically several existing and adjustable settings is assigned to a scene in which the user's own voice is present.
  • a first of the scenes is a base scene for which a base setting for the OV parameters is available and adjustable
  • a second of the scenes is a derived scene for which a derived setting for the OV parameters is available and adjustable.
  • the derived setting is derived from the base setting.
  • the base setting thus forms a prototype and starting point for the creation or definition of further settings, which are then derived accordingly from the base setting.
  • a transformation function is derived from the differences between the derived scene and the base scene, with which the base setting is modified to obtain a derived setting.
  • the derived setting is derived from the base setting by means of an interaction model that models an interaction of a hearing-impaired user with his or her environment (“hearing impaired speaker-environment interaction”).
  • the hearing-impaired user is not necessarily the specific user of the hearing aid otherwise described here, but in particular a general prototype for a hearing-impaired user.
  • the interaction model models in particular the change in one's own voice when switching between two different scenes and is based on corresponding findings, e.g., obtained in preliminary tests or studies. For example, the study Toyomura et al., “Speech levels: Do we talk at the same level as we wish others to and assume they do?”, Acoust. Sei. & Tech.
  • the derived setting is obtained from the basic setting by adjusting it with a variable strength of effect.
  • the strength of effect is, for example, a factor between 0 and 1 by which the basic setting is multiplied.
  • the value of the strength of effect is determined using the interaction model, which then outputs a value for the strength of effect depending on the scene, e.g. by using its volume level as an input parameter for the interaction model.
  • the interaction model for speech with noise results in an effect size of 0 and for a quiet environment without speech an effect size of 1.
  • the transition is either discrete or continuous.
  • a multidimensional interaction model is also advantageous.
  • the effect size depends on the noise level of the scene on the one hand and the number of speakers in the scene on the other.
  • a quiet environment without speakers is assumed to be the base scene, and this is then the base setting.
  • the effect size increases with an increasing number of speakers and is reduced at the same time as the noise level increases.
  • the basic scene is conveniently characterized by the fact that only the user's own voice is present in a quiet environment (as described above). In other words: the user speaks himself, but otherwise there are no other sounds, especially no other voices.
  • the basic scene is therefore basically a scene in which the user's own voice is present as exclusively as possible.
  • the basic setting was previously determined individually for the user in a fitting session (see above), i.e. depending on the user's individual characteristics such as age, gender, personality, etc.
  • the fitting session takes place, for example, with a hearing aid acoustician or another specialist or at least under the instruction of such a person.
  • a fitting session can also be carried out by the user themselves, e.g. with instructions from a specialist over the phone or software-guided using a smartphone or similar. It is essential that the basic setting is determined individually for the user so that all derived settings are at least somewhat individual.
  • the OV parameters are set with an automatic setting unit, which receives a scene signal from the analysis unit, which indicates the current scene, and outputs the OV parameters.
  • the setting unit is connected on the one hand to the analysis unit and on the other hand, connected to the signal processing unit.
  • the setting unit is in particular a part of the hearing aid.
  • the setting unit also accesses the memory and automatically extracts the relevant setting from it depending on the scene signal and then also automatically controls the OV processing unit in such a way that the OV parameters are set according to this setting.
  • the method described here is initially only relevant for OV scenes, i.e. for scenes in which the user's own voice is present because the user is speaking.
  • the OV processing unit is typically not required and is therefore conveniently deactivated.
  • the analysis unit appropriately detects whether the user's own voice is present and the OV processing unit is only activated when the analysis unit has detected that the user's own voice is present.
  • the OV processing unit is then set depending on the scene, i.e. the processing of the user's own voice is controlled.
  • the operation of the hearing aid therefore basically has two levels: on a first level, it is detected whether the user's own voice is present in the current scene or not.
  • the OV processing unit is activated and the user's own voice is processed, otherwise it is deactivated.
  • the exact way in which the user's own voice is processed is then set. This is then done depending on the scene, so that your own voice is optimally processed depending on the current scene and is ultimately reproduced optimally and, in particular, individually adapted, i.e. output to the user.
  • the analysis unit recognizes the current scene by determining one or more of the following parameters of the current scene based on the input signal: environment class, number of speakers, position of one or more speakers, background noise type, noise level, movement (of the user).
  • the current scene is thus classified in particular, ie assigned to one of several classes.
  • Suitable classes for scenes with one's own voice are in particular: one's own voice in a quiet environment, conversation with more than two (foreign) speakers, 1-to-1 conversation (user and a single, foreign speaker), etc.
  • the signal processing unit preferably has a scene processing unit, with which the input signal, apart from the user's own voice, is processed into the output signal depending on the current scene.
  • the input signal is therefore also processed directly depending on the scene signal and not only indirectly by the OV processing unit, which previously derived the OV parameters from the scene signal.
  • the other sounds in the environment are also processed. This in particular realizes the original function of a hearing aid, namely supplying the hearing-impaired user in particular and thus compensating for the user's corresponding hearing loss.
  • the input signal is amplified by the scene processing unit, for example according to an audiogram of the user, with a frequency-dependent amplification factor.
  • the statements in the introduction above also apply in particular to the hearing aid according to the invention described here.
  • the hearing aid is in particular either a monaural or a binaural hearing aid.
  • the hearing aid according to the invention has a control unit which is designed to carry out the method as described above.
  • One or more of the above-mentioned units analysis unit, signal processing unit, OV processing unit, scene processing unit, setting unit
  • the memory or a combination thereof are preferably part of the control unit of the hearing aid.
  • Fig. 1 a hearing aid
  • Fig. 2 a functional view of the hearing aid
  • Fig. 3 a method for operating the hearing aid
  • Fig. 4 an interaction model.
  • Fig. 1 shows an embodiment of a hearing aid 2 according to the invention for a user N (not explicitly shown in Fig. 1).
  • the hearing aid 2 has an input transducer 4, which here is a microphone and generates an input signal 6 from noises in the environment of the user N.
  • the hearing aid 2 has an analysis unit 8, which recognizes a current scene S based on the input signal 6.
  • a scene S is generally the acoustic environment of the user N at a given time and at a given location and is mainly characterized by one or more noise sources and corresponding noises in the environment as well as by the acoustic properties of the environment.
  • the analysis unit 8 outputs a scene signal 10 which indicates the current scene S.
  • the hearing aid 2 also has a signal processing unit 12 with an OV processing unit 14.
  • the abbreviation OV generally means "own voice", which means the user N's own voice of the hearing aid 2.
  • the signal processing unit 12 processes the input signal 6 into an output signal 16.
  • the OV processing unit 14 processes the user N's own voice according to a number of OV parameters P. "A number of” is generally understood to mean “one or more” or “at least one”. For example, the user's own voice is first isolated from the input signal 6 or even filtered out, then processed and finally merged again with the input signal 6. to form the output signal 8.
  • the input signal 6 is processed in such a way that exactly those parts that belong to the user's own voice are processed.
  • the OV parameters P are now set depending on the current scene S, so that the processing of the user's own voice is scene-dependent.
  • the OV parameters P influence how the user's own voice is influenced, particularly with regard to volume, temporal dynamics and/or frequency spectrum, and indicate, for example, attenuation/amplification, frequency shift, compression, delay, etc.
  • the hearing aid 2 has an output transducer 18, which here is a receiver and with which the output signal 16 is output to the user N and thus also the processed, own voice is reproduced.
  • Fig. 2 shows a functional view of the hearing aid 2, with various components of the hearing aid 2 being shown and their functional relationships to one another indicated by arrows.
  • Fig. 3 then shows an exemplary method for operating B the hearing aid 2. Operation B takes place during the intended use of the hearing aid by the user N in everyday life and while the user N is wearing the hearing aid 2 in or on the ear.
  • the user N's own voice is processed depending on the scene.
  • the current scene S is first recognized in a first step S1 and then, in a second step S2, a corresponding setting E for the OV parameters P is selected and set, so that the OV processing unit 14 processes the user's own voice differently in different scenes S, namely depending on the OV parameters P, which are set depending on the scene.
  • a corresponding setting E is stored, which is then activated when the current scene S corresponds to the corresponding scene S.
  • the output signal 16 is output S3 with the modified user's own voice contained therein.
  • the user N's own voice is transmitted to the user in different Scenes S are also output differently, namely each time adapted as optimally as possible to the respective scene S.
  • the hearing aid 2 shown here has a memory 20 in which several settings E for the OV parameters P are stored, namely one setting E for each scene S that can be recognized by the analysis unit 8.
  • the settings E are determined in advance and stored in the memory 20, e.g. during a fitting session A, e.g. with a hearing aid acoustician or other specialist personnel.
  • the OV parameters P are set in Fig. 1 with an automatic setting unit 22, which receives the scene signal 10 from the analysis unit 8 and outputs the corresponding OV parameters. Accordingly, the setting unit 22 is connected on the one hand to the analysis unit 8 and on the other hand to the signal processing unit 12. The setting unit 22 also accesses the memory 20 and automatically extracts the respective associated setting E from it depending on the scene signal 10 and then also automatically controls the OV processing unit 14 such that the OV parameters P are set according to this setting E.
  • the analysis unit 8 distinguishes at least two scenes S in which the user's own voice is present from one another and thus at least two different settings E are available and adjustable for the OV parameters P. In this case, it is therefore not a question of simply switching on and off depending on the presence of the user's own voice, but of distinguishing between scenes S each with its own voice but with different properties, i.e. the different processing of the user's own voice in different OV scenes.
  • the settings E are generally only relevant for those scenes S in which the user N speaks himself and thus his own voice is present, i.e. in so-called OV scenes. For other scenes S without his own voice, i.e.
  • a first of the scenes S is a base scene for which a base setting E1 for the OV parameters P is available and adjustable
  • a second of the scenes S is a derived scene for which a derived setting E2 for the OV parameters P is available and adjustable.
  • the derived setting E2 is derived from the base setting E1.
  • the base setting R1 thus forms a prototype and starting point for the creation or definition of further settings E2, which are then derived accordingly from the base setting E1.
  • a transformation function is derived from the differences between the derived scene and the base scene, with which the base setting E1 is modified in order to obtain a derived setting E2.
  • the base setting E1 and the settings E2 derived from it together form the settings E. An example of this is illustrated in Fig. 3.
  • the derived setting E2 is derived from the base setting E1 by means of an interaction model 24, which models an interaction of a hearing-impaired user N with his environment (“hearing impaired speaker-environment interaction”).
  • the interaction model 24 models the change in one's own voice when switching between two different scenes S and is based on corresponding findings, which were determined, for example, in preliminary tests or studies. Due to the interaction model 24, it is not necessary to determine the different settings E by actually recreating the different scenes S, but it is sufficient to determine the setting E for a single scene S (the basic setting E1 for the basic scene) and then, based on this, to calculate one or more further settings E2 using the interaction model 24.
  • an interaction model 24 is shown in Fig. 4.
  • the derived setting E2 results from the basic setting E1 by adjusting it with a variable effect strength soe (strength of effect).
  • the effect strength soe is, for example, a factor between 0 and 1 by which the basic setting E1 is multiplied.
  • the value of the effect strength soe is calculated using the interaction model 24 This then outputs a value for the effect strength soe depending on scene S, e.g. by using its volume level as an input parameter for the interaction model 24.
  • the interaction model 24 outputs an effect strength of 0 for speech with background noise and an effect strength of 1 for a quiet environment without speech.
  • the transition is either discrete or continuous.
  • FIG. 4 shows an example of a multi-dimensional interaction model 24 in which the effect strength soe is dependent on the background noise level 34 of the scene S on the one hand and the number of speakers 36 in the scene S on the other.
  • a quiet environment with no speakers is assumed to be the base scene; this then includes the base setting E1.
  • the effect strength soe is increased and at the same time reduced as the background noise level 34 increases.
  • derived settings E2 are then generated for correspondingly different scenes S.
  • the basic scene E1 is characterized in this case by the fact that only the user's own voice is present in a quiet environment. In other words: the user N speaks himself, but otherwise no other noises are present, especially no other voices.
  • the basic scene E1 is therefore basically a scene S in which the user's own voice is present as exclusively as possible.
  • the basic setting E1 was previously determined individually for the user N in a fitting session A (see also above).
  • the fitting session A takes place, for example, with a hearing aid acoustician or another specialist or at least under the instruction of such a person.
  • a fitting session A by the user N himself is also possible, e.g. with instructions from a specialist by telephone or software-guided using a smartphone or the like. It is essential that the basic setting E1 is determined individually for the user N, so that all derived settings E2 are at least partially individual, although the interaction model 24 is not individual.
  • the procedure described here is initially only relevant for OV scenes, ie for those scenes S in which the own voice is present, because the user N is speaking himself.
  • the OV processing unit 14 is typically not needed and is therefore deactivated.
  • the analysis unit 8 recognizes whether the user's own voice is present, and the OV processing unit 14 is only activated when the analysis unit 8 has recognized that the user's own voice is present.
  • the OV processing unit 14 is then set depending on the scene, i.e. the processing of the user's own voice is controlled.
  • the operation B of the hearing aid 2 therefore basically has two levels: on a first level 26 it is recognized whether or not the user's own voice is present in the current scene S.
  • the OV processing unit 14 is activated and the user's own voice is processed, and otherwise deactivated.
  • On a second level 28 it is then set how exactly the user's own voice is processed. This is then done depending on the scene, so that the user's own voice is optimally processed depending on the current scene S and thus ultimately also reproduced optimally and in particular individually adapted, i.e. output to the user N.
  • the analysis unit 8 recognizes the current scene S by determining one or more of the following parameters of the current scene S based on the input signal 6: environment class, number of speakers, position of one or more speakers, background noise type, noise level, movement (of user N).
  • the current scene S is thus classified in particular, i.e. assigned to one of several classes, e.g. own voice in a quiet environment, conversation with more than two (foreign) speakers, 1-to-1 conversation (user N and a single, foreign speaker), etc.
  • the signal processing unit 12 in the embodiment shown here has a scene processing unit 30, with which the input signal 6 is processed to the output signal 18 depending on the current scene S.
  • the other noises in the environment are therefore also processed.
  • This realizes the original function of a hearing aid 2, namely providing for the hearing-impaired user N and thus compensating for a corresponding hearing loss of the user N.
  • the input signal 6 is amplified by the scene processing unit 30 with a frequency-dependent amplification factor, for example according to an audiogram of the user N. In this way, sound signals from the environment are output to the user N in a modified form taking the audiogram into account.
  • the hearing aid 2 shown here also has a control unit 32 which is designed to carry out the method as described above.
  • the above-mentioned units analysis unit 8, signal processing unit 12, OV processing unit 14, scene processing unit 30, setting unit 22
  • the memory 20 are part of this control unit 32.

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Es wird ein Verfahren zum Betrieb (B) eines Hörgeräts (2) eines Nutzers (N) angegeben, wobei das Hörgerät (2) einen Eingangswandler (4) aufweist, welcher ein Eingangssignal (6) erzeugt, wobei das Hörgerät (2) eine Analyseeinheit (8) aufweist, wobei die Analyseeinheit (8) anhand des Eingangssignals (6) eine aktuelle Szene (S) erkennt, wobei das Hörgerät (2) eine Signalverarbeitungseinheit (12) mit einer OV-Verarbeitungseinheit (14) aufweist, wobei mit der Signalverarbeitungseinheit (12) das Eingangssignal (6) zu einem Ausgangssignal (16) verarbeitet wird und dabei mit der OV-Verarbeitungseinheit (14) die eigene Stimme des Nutzers (N) gemäß einer Anzahl an OV-Parametern (P) verarbeitet wird, wobei die OV-Parameter (P) abhängig von der aktuellen Szene (S) eingestellt werden, sodass die Verarbeitung der eigenen Stimme szenenabhängig ist, wobei das Hörgerät (2) einen Ausgangswandler (18) aufweist, mit welchem das Ausgangssignal (16) an den Nutzer (N) ausgegeben wird. Weiter wird ein entsprechendes Hörgerät (2) angegeben.

Description

Beschreibung
Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät
Die Erfindung betrifft ein Verfahren zum Betrieb eines Hörgeräts, speziell ein Verfahren zum Einstellen einer OV-Verarbeitungseinheit eines Hörgeräts. Weiter betrifft die Erfindung ein entsprechendes Hörgerät.
Ein Hörgerät dient zur Versorgung eines hörgeschädigten Nutzers und somit zum Ausgleich eines entsprechenden Hörverlusts eines solchen Nutzers. Hierzu weist das Hörgerät üblicherweise ein Mikrofon, eine Signalverarbeitungseinheit und einen Hörer auf. Das Mikrofon erzeugt ein Eingangssignal, welches der Signalverarbeitungseinheit zugeführt wird. Die Signalverarbeitungseinheit modifiziert das Eingangssignal und erzeugt dadurch ein Ausgangssignal. Zum Ausgleich eines Hörverlusts wird das Eingangssignal beispielsweise gemäß einem Audiogramm des Nutzers mit einem frequenzabhängigen Verstärkungsfaktor verstärkt. Das Ausgangssignal wird schließlich mittels des Hörers an den Nutzer ausgegeben. Auf diese Weise werden Schallsignale der Umgebung modifiziert an den Nutzer ausgegeben. Das Eingangssignal und das Ausgangssignals sind jeweils elektrische Signale. Die Schallsignale der Umgebung und die vom Hörer ausgegebenen Schallsignale sind demgegenüber akustische Signale.
Sofern der Nutzer selbst spricht, findet sich dessen eigene Stimme im Eingangssignal wieder und wird entsprechend mit dem Ausgangsignal auch wieder an den Nutzer ausgegeben. Diese Wiedergabe der eigenen Stimme des Nutzers durch das Hörgerät ist von besonderer Bedeutung und bestimmt regelmäßig die Akzeptanz des Hörgeräts durch den Nutzer. Es hat sich gezeigt, dass viele Nutzer besonders sensibel bezüglich der Wahrnehmung ihrer eigenen Stimme sind. Entsprechend ist es wünschenswert, die eigene Stimme des Nutzers durch das Hörgerät möglichst gemäß den Vorstellungen und Vorlieben des Nutzers auszugeben.
Vor diesem Hintergrund ist es eine Aufgabe der Erfindung, den Betrieb eines Hörgeräts zu verbessern, speziell hinsichtlich der Wiedergabe der eigenen Stimme des Nutzers des Hörgeräts. Hierzu sollen ein entsprechendes Verfahren und ein entsprechendes Hörgerät angegeben werden.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren mit den Merkmalen gemäß Anspruch 1 sowie durch ein Hörgerät mit den Merkmalen gemäß Anspruch 12. Vorteilhafte Ausgestaltungen, Weiterbildungen und Varianten sind Gegenstand der Unteransprüche. Die Ausführungen im Zusammenhang mit dem Verfahren gelten sinngemäß auch für das Hörgerät. Sofern nachfolgend explizit oder implizit Schritte des Verfahrens beschrieben sind, ergeben sich bevorzugte Ausgestaltungen für das Hörgerät dadurch, dass dieses eine Steuereinheit aufweist, welche ausgebildet ist, einen oder mehrere dieser Schritte durchzuführen.
Das Verfahren dient zum Betrieb eines Hörgeräts eines Nutzers. Der Nutzer hat eine eigene Stimme. Der Betrieb erfolgt insbesondere während des bestimmungsgemäßen Gebrauchs des Hörgeräts durch den Nutzer im Alltag und währen dieser das Hörgerät im oder am Ohr trägt.
Das Hörgerät weist einen Eingangswandler auf, welcher ein Eingangssignal erzeugt. Der Eingangswandler ist vorzugsweise ein Mikrofon.
Weiter weist das Hörgerät eine Analyseeinheit auf, welche anhand des Eingangssignals eine aktuelle Szene erkennt, insbesondere eine Eigenstimmenszene. Eine Szene ist allgemein die akustische Umgebung des Nutzers (genauer des Hörgeräts) zu einer gegebenen Zeit und an einem gegebenen Ort und hauptsächlich charakterisiert durch eine oder mehrere Geräuschquellen (z.B. Sprecher, Maschinen, Umwelt usw.) und entsprechende Geräusch (z.B. Nutzgeräusch wie Sprache oder Musik, Störgeräusche, Umweltgeräusche usw.) in der Umgebung sowie durch die akustischen Eigenschaften der Umgebung (z.B. mit/ohne Hintergrundrauschen, drinnen/draußen, mit Hall/ohne Hall usw.). Als Ergebnis hiervon, d.h. als Ergebnis der Erkennung der aktuellen Szene, gibt die Analyseeinheit ein Szenensignal aus, welches die aktuelle Szene angibt. In einer geeigneten Ausgestaltung enthält die Analyseeinheit einen Klassifikator, welchem das Eingangssignal zugeführt wird und welcher das Eingangssignal dann analysiert, z.B. spektral, und als Ergebnis, d.h. als Szenensignal, eine Szenenklasse ausgibt, z.B. Sprache in ruhiger Umgebung, Sprache mit Störgeräusch, mehrere Sprecher, 1-zu-1 -Konversation, Musik, ruhige Umgebung ohne Sprache, Störgeräusch ohne Sprache usw.
Das Hörgerät weist weiterhin eine Signalverarbeitungseinheit mit einer OV- Verarbeitungseinheit auf. Die Abkürzung OV bedeutet allgemein „own voice“, d.h. eigene Stimme oder Eigenstimmen-, womit die eigene Stimme des Nutzers des Hörgeräts gemeint ist. Die OV-Verarbeitungseinheit ist entsprechend eine Eigenstimmenverarbeitungseinheit. Mit der Signalverarbeitungseinheit wird das Eingangssignal zu einem Ausgangssignal verarbeitet. Dabei wird mit der OV- Verarbeitungseinheit die eigene Stimme des Nutzers gemäß einer Anzahl an OV- Parametern verarbeitet. Unter „eine Anzahl an“ wird allgemein „ein oder mehrere“ oder „zumindest ein“ verstanden. Beispielsweise wird die eigene Stimme hierzu zuvor aus dem Eingangssignal isoliert oder sogar herausgefiltert, dann verarbeitet und schließlich wieder mit dem Eingangssignal zusammengeführt, um das Ausgangssignal zu bilden. Möglich ist auch, dass das Eingangssignal insgesamt derart verarbeitet wird, dass genau diejenigen Anteile, welche zur eigenen Stimme gehören, verarbeitet werden. Die OV-Parameter werden nun abhängig von der aktuellen Szene (d.h. abhängig vom Szenensignal der Analyseeinheit) eingestellt, sodass die Verarbeitung der eigenen Stimme szenenabhängig ist. Die OV- Parameter beeinflussen, wie die eigene Stimme insbesondere hinsichtlich Lautstärke, zeitlicher Dynamik und/oder Frequenzspektrum beeinflusst wird und geben entsprechend z.B. eine Dämpfung/Verstärkung, Frequenzverschiebung, Kompression, Verzögerung usw. an, welche dann mit der OV-Verarbeitungseinheit gezielt für die eigene Stimme (z.B. beschränkt auf den zugehörigen Frequenzbereich) umgesetzt wird. Schließlich weist das Hörgerät einen Ausgangswandler auf, mit welchem das Ausgangssignal an den Nutzer ausgegeben wird und somit auch die verarbeitete, eigene Stimme wiedergegeben wird. Vorzugsweise ist der Ausgangswandler ein Hörer. Das Eingangssignal und das Ausgangssignals sind jeweils insbesondere elektrische Signale.
Ein Kerngedanke der vorliegenden Erfindung ist eine szenenabhängige Verarbeitung (auch: Modifikation) der eigenen Stimme des Nutzers. Hierzu wird entsprechend in einem ersten Schritt die aktuelle Szene zunächst erkannt und dann in einem zweiten Schritt eine entsprechende Einstellung für die OV- Parameter ausgewählt und eingestellt, sodass die OV-Verarbeitungseinheit die eigene Stimme in unterschiedlichen Szenen unterschiedlich verarbeitet, nämlich abhängig von den OV-Parametern, welche ja szenenabhängig eingestellt werden. Für jede von mehreren Szenen ist eine entsprechende Einstellung gespeichert, welche dann aktiviert wird, wenn die aktuelle Szene der entsprechenden Szene entspricht. Im Ergebnis wird die eigene Stimme des Nutzers an diesen in unterschiedlichen Szenen auch unterschiedlich ausgegeben, nämlich insbesondere jedes Mal möglichst optimal an die jeweilige Szene angepasst.
Der Erfindung liegt insbesondere die Beobachtung zugrunde, dass die Anforderungen an die Wiedergabe der eigenen Stimmen, z.B. hinsichtlich Intensität, Frequenzspektrum und/oder zeitlicher Dynamik, verschieden sind für verschiedene Szenen, d.h. in verschiedenen Umgebungen und verschiedenen Kommunikationssituationen. Viele Nutzer reagieren besonders sensibel auf die Wiedergabe der eigenen Stimme und eine nicht-optimale Wiedergabe führt oft zu einer Ablehnung des Hörgeräts. Grundsätzlich ist es vorteilhaft, eine Einstellung für die Wiedergabe der eigenen Stimme zumindest für eine einzelne, bestimmte Szene festzulegen und immer dann einzustellen, wenn die eigene Stimme unabhängig von der gesamten Szene erkannt wird. Diese einzelne, bestimmte Szene ist regelmäßig „eigene Stimme in ruhiger Umgebung“, d.h. der Nutzer spricht, während die gesamte Umgebung insgesamt ruhig ist (d.h. „in Ruhe“, z.B. isoliert in einem Raum ohne weitere Geräuschquellen oder alle Geräusche außer der eigenen Stimme weisen einen Pegel von maximal 40 dB auf) und während auch sonst keine andere Person spricht. In dieser Situation tritt die eigene Stimme für den Nutzer maximal hervor, weshalb eine Festlegung der OV-Parameter für diese Szene besonders zweckmäßig ist. Allerdings variieren die Lautstärke, das Frequenzspektrum und/oder die zeitliche Dynamik eines Nutzers sowohl physisch als auch psychologisch (abhängig von der Persönlichkeit des Nutzers, der Kommunikationsart, der Eigenwahrnehmung der eigenen Stimme usw.) abhängig davon, ob der Nutzer in einer ruhigen Umgebung spricht oder als eine von mehreren Personen in einer Gruppe. Dies hat verschiedene Gründe. Evolutionär betrachtet wollen Menschen regelmäßig vermeiden, dass die eigene Stimme ein anderes, potentiell interessantes, gefährliches und allgemein ein relevantes Geräusch verdeckt. Zusätzlich sind speziell Menschen sensibel dafür, wie die eigene Stimme von anderen Menschen wahrgenommen wird und ein Mensch ändert seine Stimme (Lautstärke, Frequenzspektrum, zeitliche Dynamik usw.) abhängig von der Sprechsituation, allgemein abhängig von der aktuellen Szene. Beispielsweise ist die eigene Stimme anders (z.B. lauter) in einer Szene, in welcher mit mehreren Personen zugleich kommuniziert wird, im Vergleich zu einer Szene, in welcher nur mit einer einzigen Person kommuniziert wird. Eine einzelne Einstellung, welche wie oben beschrieben in einer Szene mit ruhiger Umgebung ermittelt wurde, ist entsprechend nicht optimal für andere, mitunter stark unterschiedliche Szenen, speziell in solchen, welche eine Kommunikationssituation enthalten, in welcher auch andere, fremde Stimmen vorhanden sind. Dieses Problem wird vorliegend durch die szenenabhängige Einstellung der OV-Verarbeitungseinheit gelöst, denn damit werden eigene, jeweils optimale Einstellungen für mehrere verschiedene Szenen bereitgestellt, welche bei Vorliegen der jeweiligen Szene dann auch aktiviert, d.h. verwendet werden.
Geeigneterweise weist das Hörgerät einen Speicher auf, in welchem mehrere Einstellungen für die OV-Parameter gespeichert sind, nämlich je eine Einstellung für eine Szene, welche von der Analyseeinheit erkennbar ist. Die Einstellungen werden insbesondere vorab ermittelt und im Speicher gespeichert, zweckmäßigerweise im Rahmen einer Anpasssitzung („fitting session“), z.B. bei einem Hörgeräteakustiker oder sonstigem Fachpersonal. Grundsätzlich ist aber auch eine Ermittlung und Speicherung im Betrieb des Hörgeräts möglich oder auch eine nachträgliche Speicherung z.B. im Rahmen eines Updates des Hörgeräts.
Bevorzugterweise unterscheidet die Analyseeinheit zumindest zwei Szenen, in welchen die eigene Stimme vorliegt, voneinander und somit sind für die OV- Parameter zumindest zwei unterschiedliche Einstellungen vorhanden, insbesondere gespeichert, und einstellbar. Vorliegend geht es demnach nicht um ein bloßes Ein- und Ausschalten abhängig vom Vorliegen der eigenen Stimme, sondern um die Unterscheidung von Szenen jeweils mit eigener Stimme aber abseits davon unterschiedlichen Eigenschaften, d.h. um das unterschiedliche Verarbeiten der eigenen Stimme in unterschiedlichen Eigenstimmenszenen (oder auch Eigenstimmensituationen). Die Einstellungen sind allgemein lediglich für solche Szenen relevant, in welchen der Nutzer selbst spricht und somit die eigene Stimme vorliegt, d.h. in sogenannten OV-Szenen. Für andere Szenen, d.h. Szenen ohne eigene Stimme, d.h. Nicht-OV-Szenen, werden keine Einstellungen für die OV-Parameter benötigt, da in solchen Szenen die OV-Verarbeitungseinheit geeigneterweise deaktiviert ist und zumindest keine Verarbeitung der eigenen Stimme erfolgt. Entsprechend ist jede der grundsätzlich mehreren vorhandenen und einstellbaren Einstellungen, einer Szene zugeordnet, in welcher die eigene Stimme vorhanden ist.
Vorzugsweise ist eine erste der Szenen eine Basisszene, für welche eine Basiseinstellung für die OV-Parameter vorhanden und einstellbar ist, und eine zweite der Szenen ist eine abgeleitete Szene, für welche eine abgeleitete Einstellung für die OV-Parameter vorhanden und einstellbar ist. Dabei ist die abgeleitete Einstellung von der Basiseinstellung abgeleitet. Die Basiseinstellung bildet somit einen Prototyp und Ausgangspunkt für die Erstellung oder Definition weiterer Einstellungen, welche dann entsprechend von der Basiseinstellung abgeleitet sind. Zur Ableitung wird aus den Unterschieden zwischen der abgeleiteten Szene und der Basisszene eine Transformationsfunktion abgeleitet, mit welcher die Basiseinstellung modifiziert wird, um eine abgeleitete Einstellung zu erhalten.
In einer geeigneten Ausgestaltung ist die abgeleitete Einstellung von der Basiseinstellung mittels eines Interaktionsmodells abgeleitet, welches eine Interaktion eines hörgeschädigten Nutzers mit dessen Umgebung modelliert („hearing impaired speaker-environment interaction“). Der hörgeschädigte Nutzer ist nicht zwingend speziell der hier ansonsten beschriebene konkrete Nutzer des Hörgeräts, sondern insbesondere allgemein ein Prototyp für einen hörgeschädigten Nutzer. Das Interaktionsmodell modelliert insbesondere die Veränderung der eigenen Stimme beim Wechsel zwischen zwei unterschiedlichen Szenen und basiert auf entsprechenden Erkenntnissen, welche z.B. in Vorversuchen oder Studien ermittelt wurden. Beispielsweise wird in der Studie Toyomura et al., „Speech levels: Do we talk at the same level as we wish others to and assume they do?”, Acoust. Sei. & Tech. 41 , 6 (2020), gezeigt, dass Menschen die Lautstärke ihrer eigenen Stimme abhängig von der Konversationssituation anpassen. Aufgrund des Interaktionsmodels ist es nicht erforderlich, die verschiedenen Einstellungen durch tatsächliches Nachstellen der unterschiedlichen Szenen zu ermitteln, sondern es ist ausreichend, die Einstellung für eine einzelne Szene zu ermitteln (die Basiseinstellung für die Basisszene) und dann ausgehend hiervon mittels des Interaktionsmodells eine oder mehrere weitere Einstellungen zu errechnen. Dies erfolgt entweder außerhalb des hier beschriebenen Verfahrens oder als Teil davon.
Die weiteren Details des Interaktionsmodells sind zunächst von untergeordneter Bedeutung. In einer besonders einfachen, geeigneten Ausgestaltung ergibt sich die abgeleitete Einstellung aus der Basiseinstellung, indem diese mit einer variablen Effektstärke (strength of effect) angepasst wird. Die Effektstärke ist z.B. ein Faktor zwischen 0 und 1 , mit welchem die Basiseinstellung multipliziert wird. Der Wert der Effektstärke wird mit dem Interaktionsmodell bestimmt, dieses gibt dann einen Wert für die Effektstärke abhängig von Szene aus, z.B. indem deren Lautstärkepegel als Eingangsparameter für das Interaktionsmodell verwendet wird. Beispielsweise ergibt das Interaktionsmodell für Sprache mit Störgeräusch eine Effektstärke von 0 aus und für ruhige Umgebung ohne Sprache eine Effektstärke von 1 . Der Übergang ist entweder diskret oder kontinuierlich. Auch ein mehrdimensionales Interaktionsmodell ist vorteilhaft. In einer geeigneten Ausgestaltung wird ist die Effektstärke abhängig vom Störgeräuschpegel der Szene einerseits und der Anzahl an Sprechern der Szene andererseits. Als Basisszene wird eine ruhige Umgebung ohne Sprecher angenommen, hierzu gehört dann die Basiseinstellung. Mit zunehmender Anzahl an Sprechern wird die Effektstärke erhöht und zugleich mit zunehmendem Störgeräuschpegel reduziert. Durch Modifikation der Basiseinstellung mit der Effektstärke werden dann für entsprechend abweichende Szenen abgeleitete Einstellung erzeugt.
Die Basisszene ist zweckmäßigerweise dadurch charakterisiert, dass lediglich die eigene Stimme in einer ruhigen Umgebung (wie bereits oben beschrieben) vorhanden ist. Mit anderen Worten: der Nutzer spricht selbst, ansonsten sind aber keine anderen Geräusche vorhanden, speziell auch keine anderen Stimmen. Die Basisszene ist somit im Grunde eine Szene, in welcher möglichst ausschließlich die eigene Stimme vorhanden ist.
In einer geeigneten Ausgestaltung wurde die Basiseinstellung zuvor in einer Anpasssitzung („fitting session“, siehe auch weiter oben) individuell für den Nutzer ermittelt, d.h. abhängig von individuellen Eigenschaften des Nutzers wie z.B. Alter, Geschlecht, Persönlichkeit usw. Die Anpasssitzung erfolgt beispielsweise bei einem Hörgeräteakustiker oder einer sonstigen Fachperson oder zumindest unter Anleitung eines/einer solchen. Möglich ist auch eine Anpasssitzung durch den Nutzer selbst, z.B. mit Instruktion durch eine Fachperson per Telefon oder softwaregeführt mittels eines Smartphones oder dergleichen. Wesentlich ist, dass die Basiseinstellung individuell für den Nutzer ermittelt wird, sodass auch alle abgeleiteten Einstellungen zumindest ansatzweise individuell sind.
Die OV-Parameter werden in einer zweckmäßigen Ausgestaltung mit einer automatischen Einstelleinheit eingestellt, welche von der Analyseeinheit ein Szenensignal erhält, welches die aktuelle Szene angibt, und die OV-Parameter ausgibt. Entsprechend ist die Einstelleinheit einerseits mit der Analyseeinheit und andererseits mit der Signalverarbeitungseinheit verbunden. Die Einstelleinheit ist insbesondere ein Teil des Hörgeräts. Die Einstelleinheit greift insbesondere auch auf den Speicher zu und entnimmt diesem abhängig vom Szenensignal automatisch die jeweils zugehörige Einstellung und steuert dann ebenfalls automatisch die OV-Verarbeitungseinheit derart, dass die OV-Parameter gemäß dieser Einstellung eingestellt werden.
Wie bereits oben angedeutet wurde, ist das hier beschriebene Verfahren zunächst nur für OV-Szenen relevant, d.h. für solche Szenen, in welchen die eigene Stimme vorliegt, da der Nutzer selbst spricht. In allen übrigen Szenen wird die OV- Verarbeitungseinheit typischerweise nicht benötigt und daher zweckmäßigerweise deaktiviert. Entsprechend erkennt die Analyseeinheit geeigneterweise, ob die eigene Stimme vorliegt und die OV-Verarbeitungseinheit wird lediglich dann aktiviert, wenn die Analyseeinheit erkannt hat, dass die eigene Stimme vorliegt. In diesem Fall wird dann szenenabhängig die OV-Verarbeitungseinheit eingestellt, d.h. die Verarbeitung der eigenen Stimme gesteuert. Der Betrieb des Hörgeräts weist somit im Grunde zwei Ebenen auf: auf einer ersten Ebene wird erkannt, ob in der aktuellen Szene die eigene Stimme vorliegt oder nicht. Falls die eigene Stimme in der aktuellen Szene vorliegt, wird die OV-Verarbeitungseinheit aktiviert und die eigene Stimme verarbeitet und ansonsten deaktiviert. Auf einer zweiten Ebene wird dann eingestellt, auf welche Weise genau die eigene Stimme verarbeitet wird. Dies erfolgt dann szenenabhängig, sodass die eigene Stimme abhängig von der aktuellen Szene optimal verarbeitet und damit letztendlich auch optimal und insbesondere individuell angepasst wiedergegeben wird, d.h. an den Nutzer ausgegeben wird.
Wie die aktuelle Szene konkret erkannt wird ist an sich zunächst von untergeordneter Bedeutung. Wichtiger ist insbesondere, dass unterschiedliche OV-Szenen unterschieden werden. In einer geeigneten Ausgestaltung erkennt die Analyseeinheit die aktuelle Szene, indem die Analyseeinheit anhand des Eingangssignals einen oder mehrere der folgenden Parameter der aktuellen Szene bestimmt: Umgebungsklasse, Anzahl an Sprechern, Position eines oder mehrerer Sprecher, Hintergrundgeräuschtyp, Störgeräuschlevel, Bewegung (des Nutzers). Die aktuelle Szene wird damit insbesondere klassifiziert, d.h. einer von mehreren Klassen zugeordnet. Geeignete Klassen für Szenen mit eigener Stimme sind insbesondere: eigene Stimme in ruhiger Umgebung, Konversation mit mehr als zwei (fremden) Sprechern, 1-zu-1 Konversation (Nutzer und ein einzelner, fremder Sprecher) usw.
Bevorzugterweise weist die Signalverarbeitungseinheit eine Szenenverarbeitungseinheit auf, mit welcher das Eingangssignal abseits der eigenen Stimme abhängig von der aktuellen Szene zu dem Ausgangssignal verarbeitet wird. In der Szenenverarbeitungseinheit wird das Eingangssignal demnach auch unmittelbar abhängig vom Szenensignal verarbeitet und nicht nur mittelbar durch die OV-Verarbeitungseinheit, welche zuvor vom Szenensignal die OV-Parameter abgeleitet. Zusätzlich zur Verarbeitung der eigenen Stimme werden demnach auch die übrigen Geräusche in der Umgebung verarbeitet. Hierdurch wird insbesondere die originäre Funktion eines Hörgeräts realisiert, nämlich eine Versorgung des insbesondere hörgeschädigten Nutzers und damit ein Ausgleich eines entsprechenden Hörverlusts des Nutzers. Zum Ausgleich eines Hörverlusts wird das Eingangssignal mittels der Szenenverarbeitungseinheit beispielsweise gemäß einem Audiogramm des Nutzers mit einem frequenzabhängigen Verstärkungsfaktor verstärkt. Auf diese Weise werden Schallsignale der Umgebung unter Berücksichtigung des Audiograms modifiziert an den Nutzer ausgegeben. Die Ausführungen in der Einleitung weiter oben gelten insbesondere auch für das hier beschriebene, erfindungsgemäße Hörgerät. Das Hörgerät ist insbesondere entweder ein monaurales oder ein binaurales Hörgerät.
Das erfindungsgemäße Hörgerät weist eine Steuereinheit auf, welche ausgebildet ist, das Verfahren wie vorstehend beschrieben durchzuführen. Eine oder mehrere der oben genannten Einheiten (Analyseeinheit, Signalverarbeitungseinheit, OV- Verarbeitungseinheit, Szenenverarbeitungseinheit, Einstelleinheit) oder der Speicher oder eine Kombination hiervon sind vorzugsweise ein Teil der Steuereinheit des Hörgeräts. Nachfolgend werden Ausführungsbeispiele der Erfindung anhand einer Zeichnung näher erläutert. Darin zeigen jeweils schematisch:
Fig. 1 ein Hörgerät,
Fig. 2 eine Funktionsansicht des Hörgeräts,
Fig. 3 ein Verfahren zum Betrieb des Hörgeräts,
Fig. 4 ein Interaktionsmodell.
In Fig. 1 ist ein Ausführungsbeispiel für ein erfindungsgemäßes Hörgerät 2 für einen in Fig. 1 nicht explizit gezeigten Nutzer N gezeigt. Das Hörgerät 2 weist einen Eingangswandler 4 auf, welcher hier ein Mikrofon ist und aus Geräuschen in der Umgebung des Nutzers N ein Eingangssignal 6 erzeugt. Das Hörgerät 2 weist eine Analyseeinheit 8 auf, welche anhand des Eingangssignals 6 eine aktuelle Szene S erkennt. Eine Szene S ist allgemein die akustische Umgebung des Nutzers N zu einer gegebenen Zeit und an einem gegebenen Ort und hauptsächlich charakterisiert durch eine oder mehrere Geräuschquellen und entsprechende Geräusch in der Umgebung sowie durch die akustischen Eigenschaften der Umgebung. Als Ergebnis hiervon gibt die Analyseeinheit 8 ein Szenensignal 10 aus, welches die aktuelle Szene S angibt.
Das Hörgerät 2 weist weiterhin eine Signalverarbeitungseinheit 12 mit einer OV- Verarbeitungseinheit 14 auf. Die Abkürzung OV bedeutet allgemein „own voice“, d.h. eigene Stimme oder Eigenstimmen-, womit die eigene Stimme des Nutzers N des Hörgeräts 2 gemeint ist. Mit der Signalverarbeitungseinheit 12 wird das Eingangssignal 6 zu einem Ausgangssignal 16 verarbeitet. Dabei wird mit der OV- Verarbeitungseinheit 14 die eigene Stimme des Nutzers N gemäß einer Anzahl an OV-Parametem P verarbeitet. Unter „eine Anzahl an“ wird allgemein „ein oder mehrere“ oder „zumindest ein“ verstanden. Beispielsweise wird die eigene Stimme hierzu zuvor aus dem Eingangssignal 6 isoliert oder sogar herausgefiltert, dann verarbeitet und schließlich wieder mit dem Eingangssignal 6 zusammengeführt, um das Ausgangssignal 8 zu bilden. Im Ausführungsbeispiel der Fig. 1 wird das Eingangssignal 6 insgesamt derart verarbeitet wird, dass genau diejenigen Anteile, welche zur eigenen Stimme gehören, verarbeitet werden. Die OV- Parameter P werden nun abhängig von der aktuellen Szene S eingestellt, sodass die Verarbeitung der eigenen Stimme szenenabhängig ist. Die OV-Parameter P beeinflussen, wie die eigene Stimme insbesondere hinsichtlich Lautstärke, zeitlicher Dynamik und/oder Frequenzspektrum beeinflusst wird und geben entsprechend z.B. eine Dämpfung/Verstärkung, Frequenzverschiebung, Kompression, Verzögerung usw. an.
Schließlich weist das Hörgerät 2 einen Ausgangswandler 18 auf, welcher hier ein Hörer ist und mit welchem das Ausgangssignal 16 an den Nutzer N ausgegeben wird und somit auch die verarbeitete, eigene Stimme wiedergegeben wird.
In Fig. 2 ist eine Funktionsansicht des Hörgeräts 2 gezeigt, wobei verschiedene Komponenten des Hörgeräts 2 gezeigt sind und deren funktionale Beziehungen untereinander durch Pfeile angedeutet sind. In Fig. 3 ist dann ein beispielhaftes Verfahren zum Betrieb B des Hörgeräts 2 gezeigt. Der Betrieb B erfolgt während des bestimmungsgemäßen Gebrauchs des Hörgeräts durch den Nutzer N im Alltag und während der Nutzer N das Hörgerät 2 im oder am Ohr trägt.
Vorliegend erfolgt eine szenenabhängige Verarbeitung der eigenen Stimme des Nutzers N. Hierzu wird nach der Erzeugung SO des Eingangssignals 6 entsprechend in einem ersten Schritt S1 die aktuelle Szene S zunächst erkannt und dann in einem zweiten Schritt S2 eine entsprechende Einstellung E für die OV-Parameter P ausgewählt und eingestellt, sodass die OV-Verarbeitungseinheit 14 die eigene Stimme in unterschiedlichen Szenen S unterschiedlich verarbeitet, nämlich abhängig von den OV-Parametern P, welche ja szenenabhängig eingestellt werden. Für jede von mehreren Szenen S ist eine entsprechende Einstellung E gespeichert, welche dann aktiviert wird, wenn die aktuelle Szene S der entsprechenden Szene S entspricht. Schließlich erfolgt eine Ausgabe S3 des Ausgangssignals 16 mit der darin enthaltenen, modifizierten, eigenen Stimme. Im Ergebnis wird die eigene Stimme des Nutzers N an diesen in unterschiedlichen Szenen S auch unterschiedlich ausgegeben, nämlich insbesondere jedes Mal möglichst optimal an die jeweilige Szene S angepasst.
Das hier gezeigte Hörgerät 2 weist einen Speicher 20 auf, in welchem mehrere Einstellungen E für die OV-Parameter P gespeichert sind, nämlich je eine Einstellung E für eine Szene S, welche von der Analyseeinheit 8 erkennbar ist. Die Einstellungen E werden vorliegend vorab ermittelt und im Speicher 20 gespeichert, z.B. im Rahmen einer Anpasssitzung A („fitting session“), z.B. bei einem Hörgeräteakustiker oder sonstigem Fachpersonal.
Die OV-Parameter P werden in Fig. 1 mit einer automatischen Einstelleinheit 22 eingestellt, welche von der Analyseeinheit 8 das Szenensignal 10 erhält und die entsprechenden OV-Parameter ausgibt. Entsprechend ist die Einstelleinheit 22 einerseits mit der Analyseeinheit 8 und andererseits mit der Signalverarbeitungseinheit 12 verbunden. Die Einstelleinheit 22 greift auch auf den Speicher 20 zu und entnimmt diesem abhängig vom Szenensignal 10 automatisch die jeweils zugehörige Einstellung E und steuert dann ebenfalls automatisch die OV-Verarbeitungseinheit 14 derart, dass die OV-Parameter P gemäß dieser Einstellung E eingestellt werden.
Die Analyseeinheit 8 unterscheidet zumindest zwei Szenen S, in welchen die eigene Stimme vorliegt, voneinander und somit sind für die OV-Parameter P zumindest zwei unterschiedliche Einstellungen E vorhanden und einstellbar. Vorliegend geht es demnach nicht um ein bloßes Ein- und Ausschalten abhängig vom Vorliegen der eigenen Stimme, sondern um die Unterscheidung von Szenen S jeweils mit eigener Stimme aber abseits davon unterschiedlichen Eigenschaften, d.h. um das unterschiedliche Verarbeiten der eigenen Stimme in unterschiedlichen Eigenstimmenszenen. Die Einstellungen E sind allgemein lediglich für solche Szenen S relevant, in welchen der Nutzer N selbst spricht und somit die eigene Stimme vorliegt, d.h. in sogenannten OV-Szenen. Für andere Szenen S ohne eigene Stimme, d.h. Nicht-OV-Szenen, werden keine Einstellungen E für die OV- Parameter P benötigt, da in solchen Szenen S die OV-Verarbeitungseinheit 14 deaktiviert ist und keine Verarbeitung der eigenen Stimme erfolgt. Entsprechend ist jede der grundsätzlich mehreren vorhandenen und einstellbaren Einstellungen E, einer Szene S zugeordnet, in welcher die eigene Stimme vorhanden ist.
Eine erste der Szenen S ist eine Basisszene, für welche eine Basiseinstellung E1 für die OV-Parameter P vorhanden und einstellbar ist, und eine zweite der Szenen S ist eine abgeleitete Szene, für welche eine abgeleitete Einstellung E2 für die OV-Parameter P vorhanden und einstellbar ist. Dabei ist die abgeleitete Einstellung E2 von der Basiseinstellung E1 abgeleitet. Die Basiseinstellung R1 bildet somit einen Prototyp und Ausgangspunkt für die Erstellung oder Definition weiterer Einstellungen E2, welche dann entsprechend von der Basiseinstellung E1 abgeleitet sind. Zur Ableitung wird aus den Unterschieden zwischen der abgeleiteten Szene und der Basisszene eine Transformationsfunktion abgeleitet, mit welcher die Basiseinstellung E1 modifiziert wird, um eine abgeleitete Einstellung E2 zu erhalten. Die Basiseinstellung E1 und die davon abgeleiteten Einstellungen E2 bilden gemeinsam die Einstellungen E. Ein Beispiel hierfür ist in Fig. 3 illustriert. Die abgeleitete Einstellung E2 wird von der Basiseinstellung E1 mittels eines Interaktionsmodells 24 abgeleitet, welches eine Interaktion eines hörgeschädigten Nutzers N mit dessen Umgebung modelliert („hearing impaired speaker-environment interaction“). Das Interaktionsmodell 24 modelliert die Veränderung der eigenen Stimme beim Wechsel zwischen zwei unterschiedlichen Szenen S und basiert auf entsprechenden Erkenntnissen, welche z.B. in Vorversuchen oder Studien ermittelt wurden. Aufgrund des Interaktionsmodels 24 ist es nicht erforderlich, die verschiedenen Einstellungen E durch tatsächliches Nachstellen der unterschiedlichen Szenen S zu ermitteln, sondern es ist ausreichend, die Einstellung E für eine einzelne Szene S zu ermitteln (die Basiseinstellung E1 für die Basisszene) und dann ausgehend hiervon mittels des Interaktionsmodells 24 eine oder mehrere weitere Einstellungen E2 zu errechnen.
Ein Beispiel für ein Interaktionsmodell 24 ist in Fig. 4 gezeigt. Demnach ergibt sich die abgeleitete Einstellung E2 aus der Basiseinstellung E1 , indem diese mit einer variablen Effektstärke soe (strength of effect) angepasst wird. Die Effektstärke soe ist z.B. ein Faktor zwischen 0 und 1 , mit welchem die Basiseinstellung E1 multipliziert wird. Der Wert der Effektstärke soe wird mit dem Interaktionsmodell 24 bestimmt, dieses gibt dann einen Wert für die Effektstärke soe abhängig von Szene S aus, z.B. indem deren Lautstärkepegel als Eingangsparameter für das Interaktionsmodell 24 verwendet wird. Beispielsweise gibt das Interaktionsmodell 24 für Sprache mit Störgeräusch eine Effektstärke von 0 aus und für ruhige Umgebung ohne Sprache eine Effektstärke von 1. Der Übergang ist entweder diskret oder kontinuierlich. In Fig. 4 ist beispielhaft ein mehrdimensionales Interaktionsmodell 24 gezeigt, bei welchem die Effektstärke soe abhängig vom Störgeräuschpegel 34 der Szene S einerseits und der Anzahl an Sprechern 36 der Szene S andererseits ist. Als Basisszene wird eine ruhige Umgebung ohne Sprecher angenommen, hierzu gehört dann die Basiseinstellung E1. Mit zunehmender Anzahl an Sprechern 36 wird die Effektstärke soe erhöht und zugleich mit zunehmendem Störgeräuschpegel 34 reduziert. Durch Modifikation der Basiseinstellung E1 mit der Effektstärke soe werden dann für entsprechend abweichende Szenen S abgeleitete Einstellung E2 erzeugt.
Die Basisszene E1 ist vorliegend dadurch charakterisiert, dass lediglich die eigene Stimme in einer ruhigen Umgebung vorhanden ist. Mit anderen Worten: der Nutzer N spricht selbst, ansonsten sind aber keine anderen Geräusche vorhanden, speziell auch keine anderen Stimmen. Die Basisszene E1 ist somit im Grunde eine Szene S, in welcher möglichst ausschließlich die eigene Stimme vorhanden ist. Im Ausführungsbeispiel der Fig. 3 wurde die Basiseinstellung E1 zuvor in einer Anpasssitzung A („fitting session“, siehe auch weiter oben) individuell für den Nutzer N ermittelt. Die Anpasssitzung A erfolgt beispielsweise bei einem Hörgeräteakustiker oder einer sonstigen Fachperson oder zumindest unter Anleitung eines/einer solchen. Möglich ist auch eine Anpasssitzung A durch den Nutzer N selbst, z.B. mit Instruktion durch eine Fachperson per Telefon oder softwaregeführt mittels eines Smartphones oder dergleichen. Wesentlich ist, dass die Basiseinstellung E1 individuell für den Nutzer N ermittelt wird, sodass auch alle abgeleiteten Einstellungen E2 zumindest ansatzweise individuell sind, obwohl das Interaktionsmodell 24 nicht individuell ist.
Wie bereits angedeutet, ist das hier beschriebene Verfahren zunächst nur für OV- Szenen relevant, d.h. für solche Szenen S, in welchen die eigene Stimme vorliegt, da der Nutzer N selbst spricht. In allen übrigen Szenen S wird die OV- Verarbeitungseinheit 14 typischerweise nicht benötigt und daher deaktiviert. Entsprechend erkennt die Analyseeinheit 8 vorliegend, ob die eigene Stimme vorliegt, und die OV-Verarbeitungseinheit 14 wird lediglich dann aktiviert, wenn die Analyseeinheit 8 erkannt hat, dass die eigene Stimme vorliegt. In diesem Fall wird dann szenenabhängig die OV-Verarbeitungseinheit 14 eingestellt, d.h. die Verarbeitung der eigenen Stimme gesteuert. Der Betrieb B des Hörgeräts 2 weist somit im Grunde zwei Ebenen auf: auf einer ersten Ebene 26 wird erkannt, ob in der aktuellen Szene S die eigene Stimme vorliegt oder nicht. Falls die eigene Stimme in der aktuellen Szene S vorliegt, wird die OV-Verarbeitungseinheit 14 aktiviert und die eigene Stimme verarbeitet und ansonsten deaktiviert. Auf einer zweiten Ebene 28 wird dann eingestellt, auf welche Weise genau die eigene Stimme verarbeitet wird. Dies erfolgt dann szenenabhängig, sodass die eigene Stimme abhängig von der aktuellen Szene S optimal verarbeitet und damit letztendlich auch optimal und insbesondere individuell angepasst wiedergegeben wird, d.h. an den Nutzer N ausgegeben wird.
Wie die aktuelle Szene S konkret erkannt wird ist an sich zunächst von untergeordneter Bedeutung. Wichtiger ist insbesondere, dass unterschiedliche OV-Szenen unterschieden werden. Beispielsweise erkennt die Analyseeinheit 8 die aktuelle Szene S, indem die Analyseeinheit 8 anhand des Eingangssignals 6 einen oder mehrere der folgenden Parameter der aktuellen Szene S bestimmt: Umgebungsklasse, Anzahl an Sprechern, Position eines oder mehrerer Sprecher, Hintergrundgeräuschtyp, Störgeräuschlevel, Bewegung (des Nutzers N). Die aktuelle Szene S wird damit insbesondere klassifiziert, d.h. einer von mehreren Klassen zugeordnet, z.B. eigene Stimme in ruhiger Umgebung, Konversation mit mehr als zwei (fremden) Sprechern, 1-zu-1 Konversation (Nutzer N und ein einzelner, fremder Sprecher) usw.
Zudem wiest die Signalverarbeitungseinheit 12 in dem hier gezeigten Ausführungsbeispiel eine Szenenverarbeitungseinheit 30 auf, mit welcher das Eingangssignal 6 abhängig von der aktuellen Szene S zu dem Ausgangssignal 18 verarbeitet wird. Zusätzlich zur Verarbeitung der eigenen Stimme werden demnach auch die übrigen Geräusche in der Umgebung verarbeitet. Hierdurch wird die originäre Funktion eines Hörgeräts 2 realisiert, nämlich eine Versorgung des hörgeschädigten Nutzers N und damit ein Ausgleich eines entsprechenden Hörverlusts des Nutzers N. Zum Ausgleich eines Hörverlusts wird das Eingangssignal 6 mittels der Szenenverarbeitungseinheit 30 beispielsweise gemäß einem Audiogramm des Nutzers N mit einem frequenzabhängigen Verstärkungsfaktor verstärkt. Auf diese Weise werden Schallsignale der Umgebung unter Berücksichtigung des Audiograms modifiziert an den Nutzer N ausgegeben.
Das hier gezeigte Hörgerät 2 weist außerdem eine Steuereinheit 32 auf, welche ausgebildet ist, das Verfahren wie vorstehend beschrieben durchzuführen. Die oben genannten Einheiten (Analyseeinheit 8, Signalverarbeitungseinheit 12, OV- Verarbeitungseinheit 14, Szenenverarbeitungseinheit 30, Einstelleinheit 22) und der Speicher 20 sind ein Teil dieser Steuereinheit 32.
Bezugszeichenliste
2 Hörgerät
4 Eingangswandler
6 Eingangssignal
8 Analyseeinheit
10 Szenensignal
12 Signalverarbeitungseinheit
14 OV-Verarbeitungseinheit
16 Ausgangssignal
18 Ausgangswandler
20 Speicher
22 Einstelleinheit
24 Interaktionsmodel
26 erste Ebene
28 zweite Ebene
30 Szenenverarbeitungseinheit
32 Steuereinheit
34 Störgeräuschpegel
36 Anzahl an Sprechern
A Anpasssitzung
B Betrieb
E Einstellung
E1 Einstellung, Basiseinstellung
E2 Einstellung, abgeleitete Einstellung
N Nutzer
P OV-Parameter
5 Szene soe Effektstärke
50 Aufnahme eines Eingangssignals
51 erster Schritt
S2 zweiter Schritt
S3 Ausgabe eines Ausgangssignals

Claims

Ansprüche Verfahren zum Betrieb (B) eines Hörgeräts (2) eines Nutzers (N),
- wobei das Hörgerät (2) einen Eingangswandler (4) aufweist, welcher ein Eingangssignal (6) erzeugt,
- wobei das Hörgerät (2) eine Analyseeinheit (8) aufweist,
- wobei die Analyseeinheit (8) anhand des Eingangssignals (6) eine aktuelle Szene (S) erkennt,
- wobei das Hörgerät (2) eine Signalverarbeitungseinheit (12) mit einer OV-Verarbeitungseinheit (14) aufweist,
- wobei mit der Signalverarbeitungseinheit (12) das Eingangssignal (6) zu einem Ausgangssignal (16) verarbeitet wird und dabei mit der OV-Verarbeitungseinheit (14) die eigene Stimme des Nutzers (N) gemäß einer Anzahl an OV-Parametern (P) verarbeitet wird,
- wobei die OV-Parameter (P) abhängig von der aktuellen Szene (S) eingestellt werden, sodass die Verarbeitung der eigenen Stimme szenenabhängig ist,
- wobei das Hörgerät (2) einen Ausgangswandler (18) aufweist, mit welchem das Ausgangssignal (16) an den Nutzer (N) ausgegeben wird. Verfahren nach Anspruch 1 , wobei das Hörgerät (2) einen Speicher (20) aufweist, in welchem mehrere Einstellungen (E) gespeichert sind, nämlich je eine Einstellung (E) für eine Szene (S), welche von der Analyseeinheit (8) erkennbar ist. Verfahren nach Anspruch 1 oder 2, wobei die Analyseeinheit (8) zumindest zwei Szenen (S), in welchen die eigene Stimme vorliegt, voneinander unterscheidet und somit für die OV- Parameter (P) zumindest zwei unterschiedliche Einstellungen (E) vorhanden und einstellbar sind. Verfahren nach einem der Ansprüche 1 bis 3, wobei eine erste der Szenen (S) eine Basisszene ist, für welche eine Basiseinstellung (E1 ) für die OV-Parameter (P) vorhanden und einstellbar ist, wobei eine zweite der Szenen (S) eine abgeleitete Szene ist, für welche eine abgeleitete Einstellung (E2) für die OV-Parameter (P) vorhanden und einstellbar ist, wobei die abgeleitete Einstellung (E2) von der Basiseinstellung (E1 ) abgeleitet ist. Verfahren nach Anspruch 4, wobei die abgeleitete Einstellung (E2) von der Basiseinstellung (E1 ) mittels eines Interaktionsmodells (24) abgeleitet ist, welches eine Interaktion eines hörgeschädigten Nutzers (N) mit dessen Umgebung modelliert. Verfahren nach Anspruch 4 oder 5, wobei die Basisszene dadurch charakterisiert ist, dass lediglich die eigene Stimme in einer ruhigen Umgebung vorhanden ist. Verfahren nach einem der Ansprüche 4 bis 6, wobei die Basiseinstellung (E1 ) in einer Anpasssitzung (A) individuell für den Nutzer (N) ermittelt wurde. Verfahren nach einem der Ansprüche 1 bis 7, wobei die OV-Parameter (P) mit einer automatischen Einstelleinheit (22) eingestellt werden, welche von der Analyseeinheit (8) ein Szenensignal (10) erhält, welches die aktuelle Szene (S) angibt, und welche die OV- Parameter (P) ausgibt. Verfahren nach einem der Ansprüche 1 bis 8, wobei die Analyseeinheit (8) erkennt, ob die eigene Stimme vorliegt, wobei die OV-Verarbeitungseinheit (14) lediglich dann aktiviert wird, wenn die Analyseeinheit (8) erkannt hat, dass die eigene Stimme vorliegt. Verfahren nach einem der Ansprüche 1 bis 9, wobei die Analyseeinheit (8) die aktuelle Szene (S) erkennt, indem die Analyseeinheit (8) anhand des Eingangssignals (6) einen oder mehrere der folgenden Parameter bestimmt: Umgebungsklasse, Anzahl an Sprechern, Position eines oder mehrerer Sprecher, Hintergrundgeräuschtyp, Störgeräuschlevel, Bewegung. Verfahren nach einem der Ansprüche 1 bis 10, wobei die Signalverarbeitungseinheit (12) eine Szenenverarbeitungseinheit (30) aufweist, mit welcher das Eingangssignal (6) abseits der eigenen Stimme abhängig von der aktuellen Szene (S) zu dem Ausgangssignal (16) verarbeitet wird. Hörgerät (2), welches eine Steuereinheit (32) aufweist, welche ausgebildet ist, das Verfahren gemäß einem der Ansprüche 1 bis 11 durchzuführen.
PCT/EP2023/081579 2022-11-14 2023-11-13 Verfahren zum betrieb eines hörgeräts sowie hörgerät WO2024104945A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022212035.3A DE102022212035A1 (de) 2022-11-14 2022-11-14 Verfahren zum Betrieb eines Hörgeräts sowie Hörgerät
DE102022212035.3 2022-11-14

Publications (1)

Publication Number Publication Date
WO2024104945A1 true WO2024104945A1 (de) 2024-05-23

Family

ID=88839431

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/081579 WO2024104945A1 (de) 2022-11-14 2023-11-13 Verfahren zum betrieb eines hörgeräts sowie hörgerät

Country Status (2)

Country Link
DE (1) DE102022212035A1 (de)
WO (1) WO2024104945A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060222194A1 (en) * 2005-03-29 2006-10-05 Oticon A/S Hearing aid for recording data and learning therefrom
US20110150256A1 (en) * 2008-05-30 2011-06-23 Phonak Ag Method for adapting sound in a hearing aid device by frequency modification and such a device
US20220272462A1 (en) * 2020-10-02 2022-08-25 Oticon A/S Hearing device comprising an own voice processor

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017205652B3 (de) 2017-04-03 2018-06-14 Sivantos Pte. Ltd. Verfahren zum Betrieb einer Hörvorrichtung und Hörvorrichtung
DE102018216667B3 (de) 2018-09-27 2020-01-16 Sivantos Pte. Ltd. Verfahren zur Verarbeitung von Mikrofonsignalen in einem Hörsystem sowie Hörsystem
DE102020202483A1 (de) 2020-02-26 2021-08-26 Sivantos Pte. Ltd. Hörsystem mit mindestens einem im oder am Ohr des Nutzers getragenen Hörinstrument sowie Verfahren zum Betrieb eines solchen Hörsystems
DE102020216439A1 (de) 2020-12-21 2022-06-23 Sivantos Pte. Ltd. Verfahren zum Betrieb eines Hörsystems mit einem Hörinstrument

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060222194A1 (en) * 2005-03-29 2006-10-05 Oticon A/S Hearing aid for recording data and learning therefrom
US20110150256A1 (en) * 2008-05-30 2011-06-23 Phonak Ag Method for adapting sound in a hearing aid device by frequency modification and such a device
US20220272462A1 (en) * 2020-10-02 2022-08-25 Oticon A/S Hearing device comprising an own voice processor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Signia Assistant - FAQ", 1 April 2020 (2020-04-01), pages 1 - 3, XP093121220, Retrieved from the Internet <URL:cdn.signia-pro.com/-/media/signia/global/files/app---telecare/signia-assistant_pro_faq_2020-04.pdf?rev=-1> [retrieved on 20240118] *
TOYOMURA ET AL.: "Speech levels: Do we talk at the same level as we wish others to and assume they do?", ACOUST. SCI. & TECH., vol. 41, no. 6, 2020

Also Published As

Publication number Publication date
DE102022212035A1 (de) 2024-05-16

Similar Documents

Publication Publication Date Title
DE102005020317B4 (de) Automatische Verstärkungseinstellung bei einem Hörhilfegerät
DE60222813T2 (de) Hörgerät und methode für das erhöhen von redeverständlichkeit
DE69933141T2 (de) Tonprozessor zur adaptiven dynamikbereichsverbesserung
EP2306756B1 (de) Verfahren zur Feinanpassung eines Hörhilfegerätes sowie Hörhilfegerät
EP3288293A1 (de) Verfahren und einrichtung zur einstellung eines hörhilfegeräts
DE102019206743A1 (de) Hörgeräte-System und Verfahren zur Verarbeitung von Audiosignalen
EP2180726A1 (de) Richtungshören bei binauraler Hörgeräteversorgung
DE102019219510B3 (de) Verfahren, bei welchem zwei Hörgeräte miteinander gekoppelt werden, sowie Hörgerät
EP3840418A1 (de) Verfahren zur anpassung eines hörinstruments und zugehöriges hörsystem
EP3598778A1 (de) Verfahren zum betrieb eines hörgeräts sowie hörgerät zur detektion der eigenstimme anhand eines individuellen schwellwerts
DE102020202483A1 (de) Hörsystem mit mindestens einem im oder am Ohr des Nutzers getragenen Hörinstrument sowie Verfahren zum Betrieb eines solchen Hörsystems
DE102008021613A1 (de) Verfahren und Vorrichtung zur Bestimmung eines Verschlussgrads bei Hörgeräten
DE102007035171A1 (de) Verfahren zum Anpassen eines Hörgeräts mit Hilfe eines perzeptiven Modells
EP2302952A1 (de) Selbstanpassung eines Hörhilfegerätes
EP3951780B1 (de) Verfahren zum betrieb eines hörgeräts und hörgerät
DE102019203786A1 (de) Hörgerätesystem
DE102006015497B4 (de) Audiosystem und Verfahren sowie Computerprogramm und Datenträger der das Computerprogramm enthält zur Anpassung der Übertragungsfunktion eines Audiosystems mittels Sprachsteuerung
EP2200341A1 (de) Verfahren zum Betrieb eines Hörhilfegerätes sowie Hörhilfegerät mit einer Quellentrennungseinrichtung
EP3793218B1 (de) Verfahren zum betrieb eines hörgeräts sowie hörgerät
DE102012203349B4 (de) Verfahren zum Anpassen einer Hörvorrichtung anhand des Sensory Memory und Anpassvorrichtung
EP3448063B1 (de) Verfahren zum anpassen einer hörvorrichtung
WO2019215200A1 (de) Verfahren zum betrieb eines hörsystems sowie hörsystem
DE102016207936A1 (de) Verfahren zum Betrieb eines Hörgeräts
WO2024104945A1 (de) Verfahren zum betrieb eines hörgeräts sowie hörgerät
EP1416764B1 (de) Verfahren zur Einstellung eines Hörgerätes sowie Vorrichtung zur Durchführung des Verfahrens