EP1912474B1 - Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe - Google Patents

Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe Download PDF

Info

Publication number
EP1912474B1
EP1912474B1 EP07117250.6A EP07117250A EP1912474B1 EP 1912474 B1 EP1912474 B1 EP 1912474B1 EP 07117250 A EP07117250 A EP 07117250A EP 1912474 B1 EP1912474 B1 EP 1912474B1
Authority
EP
European Patent Office
Prior art keywords
hearing aid
speaker
signal processor
electrical
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Not-in-force
Application number
EP07117250.6A
Other languages
English (en)
French (fr)
Other versions
EP1912474A1 (de
Inventor
Eghart Fischer
Matthias Fr˦hlich
Jens Hain
Henning Puder
André Steinbuß
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sivantos GmbH
Original Assignee
Sivantos GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sivantos GmbH filed Critical Sivantos GmbH
Publication of EP1912474A1 publication Critical patent/EP1912474A1/de
Application granted granted Critical
Publication of EP1912474B1 publication Critical patent/EP1912474B1/de
Not-in-force legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest

Definitions

  • the invention relates to a method for operating a hearing aid consisting of a single or two hearing aids. Furthermore, the invention relates to a corresponding hearing aid or a corresponding hearing aid.
  • noise or unwanted acoustic signals that interfere with the voice of a counterpart or a wanted acoustic signal are omnipresent. People with a hearing loss are particularly susceptible to such noise. Conversations in the background, acoustic interference with digital devices (cell phones), car or other environmental noise can make it very difficult for a person with hearing loss to understand a desired speaker. Reducing the level of noise in an acoustic signal coupled with an automatic focus on a desired acoustic signal component can significantly improve the performance of an electronic speech processor as used in modern hearing aids.
  • Hearing aids with digital signal processing have been introduced in the recent past. They include one or more microphones, A / D converters, digital signal processors and speakers. Usually, the digital signal processors divide the incoming signals into a plurality of frequency bands. Within each band, signal amplification and processing may be individually adjusted in accordance with requirements for a particular hearing aid wearer to improve the intelligibility of a particular component. Furthermore, algorithms for feedback and noise minimization are available in digital signal processing, but have significant disadvantages. A disadvantage of the currently existing algorithms for noise minimization z. B. whose maximum achievable improvement in hearing aid acoustics when speech and background sounds are in the same frequency region and therefore unable to distinguish between spoken speech and background noise. (See also EP 1 017 253 A2 )
  • the EP 1 303 166 A2 discloses a method for operating a hearing aid, wherein a respective reference person direction is determined to improve a communication between a hearing aid wearer and one or a plurality of reference persons, regardless of current positions to each other.
  • hearing aid has, in addition to a signal processing unit, a direction identification unit, by means of which the respective reference person direction can be determined.
  • the reference person direction is determined by a speaker recognition, and a parameter set of a hearing aid transmission function can be changed according to a desired directional characteristic.
  • acoustic signal processing there are spatial (eg directional microphone, beamforming), statistical (eg blind source separation) or mixed methods, which, among other things, using algorithms from several simultaneously active sound sources, one or a plurality of them can disconnect.
  • This allows the blind source separation by statistical signal processing of at least two microphone signals to perform a separation of source signals without prior knowledge of their geometric arrangement.
  • This method has advantages over conventional directional microphone approaches when used in hearing aids. Due to the principle, with such a BSS method (BSS: Blind Source Separation) with n microphones, it is possible to separate up to n sources, ie generate n output signals.
  • BSS Blind Source Separation
  • the control of directional microphones in the sense of blind source separation is subject to ambiguity, as soon as several competing sources of use, eg. B. speaker, present simultaneously.
  • the blind source separation allows in principle the separation of the various sources, if this spatially are separated; however, the ambiguity mitigates the potential benefit of a directional microphone, though just now In such scenarios, a directional microphone to improve speech intelligibility can be of great benefit.
  • the hearing aid or the mathematical algorithms for blind source separation are in principle faced with the problem of having to decide which of the signals generated by the blind source separation should be passed on most advantageously to the user of the algorithm, ie the hearing aid wearer.
  • the choice made by this algorithm must therefore be based on assumptions about the probable will of the listener.
  • the focus of interest of hearing aid users is to formulate a more flexible acoustic signal selection method, which is not restricted by a geometric distribution of acoustic sources. It is therefore an object of the invention to provide an improved method for operating a hearing aid, as well as an improved hearing aid.
  • it is an object of the invention which output signal of a blind source separation, the hearing aid wearer is acoustically supplied. It is thus an object of the invention to find out which with high probability is a preferred speaker acoustic source of the hearing aid wearer.
  • a selection of the speaker acoustic source to be reproduced is made in such a way that - if present - a preferred speaker or a speaker known to the hearing aid wearer is always reproduced by the hearing aid.
  • a database with profiles of a single or several such preferred speakers is created for this purpose. Acoustic profiles are then determined or evaluated for the output signals of a blind source separation and compared with the entries in the database. In the event that one of the output signals of the source separation matches the or a database profile, then this electrical acoustic signal or this speaker is then explicitly selected and made available to the hearing aid wearer via the hearing aid. Such a decision may take precedence over other decisions that have lower decision-making power in such a case.
  • a method for operating a hearing aid wherein for tracking and selective amplification of a speaker acoustic source or an electrical speaker signal, by signal processing of the hearing aid for preferably all electrical acoustic signals available to it, comparison is made with voice profiles of desired or known speakers , where the language profiles are stored in a database that is preferably located in the hearing aid or hearing aids.
  • the speaker acoustic source or the speaker acoustic sources which largely coincide with the voice profiles of the database, are tracked by the signal processing and are particularly taken into account in an acoustic output signal of the hearing aid.
  • a hearing aid is provided, wherein by means of an acoustic module (signal processing) of the hearing aid generated by a blind source separation, electrical acoustic signals with voice profile entries of a database can be adjusted.
  • the acoustic module selects from the electrical acoustic signals at least one electrical speaker signal which corresponds to a voice profile of a desired or known speaker, wherein this electrical speaker signal can be taken into particular consideration in an output signal of the hearing aid.
  • the hearing aid it is possible, depending on the number of existing microphones in the hearing aid to select a single or a plurality of speaker acoustic sources from the ambient sound and to emphasize the output sound of the hearing aid. In this case, it is possible to arbitrarily set a volume of the speaker acoustic source or the speaker acoustic sources in the output sound of the hearing aid.
  • the signal processing has a demix module which functions as a means for blind source separation for separating the acoustic sources of ambient sound. Furthermore, the signal processing has a post-processor module, which establishes a corresponding operating mode "speaker" in the hearing aid when detecting an acoustic source with a high probability of speaker. Furthermore, the signal processing may comprise a preprocessor module - the electrical output signals of which are the electrical input signals of the demix module - which normalizes and processes electrical acoustic signals originating from microphones of the hearing aid. In terms of that Preprocessor module and the demixing module (Unmixer) is on the EP 1 017 253 A2 Refer to paragraphs [0008] to [0023].
  • a comparison of the speech profiles stored in the database with the acoustic profiles currently received by the hearing aid takes place, or a comparison of the profiles of the electrical acoustic signals currently generated by the signal processing with the speech profiles stored in the database takes place.
  • This preferably takes place by the signal processing or the post-processor module, wherein the database can be part of the signal processing or the post-processor module or part of the hearing aid.
  • the post-processor module tracks and selects the electrical speaker signal (s) and generates a corresponding electrical output acoustic signal for a loudspeaker loudspeaker.
  • the hearing aid has a data interface via which the hearing aid can communicate with a peripheral device.
  • a data interface via which the hearing aid can communicate with a peripheral device.
  • This is z. B. possible to exchange voice profiles of the desired or known speaker with other hearing aids. It is also possible to edit voice profiles in a computer and then transfer them to the hearing aid to update them.
  • the limited space within the hearing aid can be better utilized by the data interface, since this external processing and thus a "streamlining" the voice profiles is possible.
  • an external computer several databases with different language profiles, eg. As private and business, created and the hearing aid thus be configured for an upcoming situation accordingly.
  • the hearing aid or the signal processing can be trained on a speech characteristic of a new speaker. Furthermore, it is also possible to have additional voice profiles of the same Spokesman create what z. B. for different acoustic situations, eg. B. near / far, advantage.
  • the hearing aid or the signal processing on a device which meets a downstream corresponding acoustic source selection could e.g. B. look in such a way that, upon detection of (unknown) language in an electrical acoustic signal that speaker or those speakers are selected, which are in the direction of the hearing aid wearer. In addition, it is possible to make this subordinate decision as to which speaker is as close as possible to the hearing aid wearer or who speaks the loudest.
  • the hearing aid includes a remote control
  • the hearing aid can be made smaller overall and offer more storage space for voice profiles.
  • the remote control can communicate wireless or wired with the hearing aid.
  • a "tracking" of an electrical speaker signal by a hearing aid of a hearing aid wearer is mentioned.
  • This is to be understood as one of the hearing aid or a signal processing of the hearing aid or a post-processor module of the signal processing selection of one or a plurality of electrical speaker signals which are selected by the hearing aid electrically or electronically from other sources of acoustic ambient sound and which in a relation to the other acoustic sources of ambient sound amplified way, ie in a louder perceived for the hearing aid wearer, are reproduced.
  • a position of the hearing aid wearer in the room especially a position of the hearing aid in the room, ie a viewing direction of the hearing aid wearer, preferably not considered.
  • a hearing aid 1 has two microphones 200, 210, which together can form a directional microphone system, for generating two electrical acoustic signals 202, 212.
  • Such a microphone arrangement gives the two electrical output signals 202, 212 of the microphones 200, 210 an inherent directional characteristic.
  • Each of the microphones 200, 210 receives an ambient sound 100 that is a composite of unknown, acoustic signals from an unknown number of acoustic sources.
  • the electrical acoustic signals 202, 212 are processed primarily in three stages.
  • the electrical acoustic signals 202, 212 are preprocessed in a preprocessing module 310 to improve the directional characteristic, which begins with a normalization of the original signals (equalizing the signal strength).
  • a blind source separation takes place in a BSS module 320, wherein the output signals of the preprocessor module 310 a demixing subject.
  • the output signals of the BSS module 320 are post-processed in a post-processor module 330 to produce a desired electrical output signal 332 which serves as input to a handset 400 and loudspeaker 400 of the hearing aid 1, respectively, and a sound generated thereby to the hearing aid wearer leave.
  • steps 1 and 3 that is, preprocessor module 310 and postprocessor module 330, are optional.
  • Fig. 2 shows a first embodiment of the invention, wherein in a signal processing 300 of the hearing aid 1 a demix module 320, hereinafter referred to as BSS module 320, is located, which is a post-processor module 330 downstream.
  • a preprocessor module 310 can be provided which appropriately prepares or prepares the input signals for the BSS module 320.
  • the signal processing 300 is preferably carried out in a DSP (Digital Signal Processor) or in an ASIC (Application Specific Integrated Circuit).
  • acoustic sources 102 are independent independent acoustic 102, 104 or signal sources 102, 104 exist in ambient sound 100, one of these acoustic sources 102 being a speaker source 102 of a speaker known to the hearing aid wearer and the other acoustic source 104 being a noise source 104.
  • the speaker acoustic source 102 is to be selected and tracked by the hearing aid 1 and the signal processor 300, respectively, and be a primary acoustic component of the handset 400 so that an output sound 402 of the speaker 400 mainly contains this signal (102).
  • the two microphones 200, 210 of the hearing aid 1 each receive a mixture of the two acoustic signals 102, 104 - illustrated by the dotted arrow (representing the preferred, acoustic signal 102) and the solid arrow (representing the non-preferred, acoustic signal 104). and either pass them to the preprocessor module 310 or equal to the BSS module 320 as electrical input signals.
  • the two microphones 200, 210 can be distributed as desired. They may be located in a single hearing aid 1 of the hearing aid 1 or distributed to both hearing aids 1. In addition, it is possible, for. B. one or both microphones 200, 210 outside the hearing aid 1, z. B.
  • the electrical input signals of the BSS module 320 need not necessarily originate from a single hearing device 1 of the hearing aid 1.
  • a hearing aid 1 consisting of two hearing aids 1 has a total of four or six microphones.
  • the preprocessor module 310 prepares the data for the BSS module 320, which in turn forms two separate output signals from its two mixed input signals, depending on the capability, each of which represents one of the two acoustic signals 102, 104.
  • the two separate output signals of the BSS module 320 are input signals for the post-processor module 330, in which it is now decided which of the two acoustic signals 102, 104 is output to the loudspeaker 400 as an electrical output signal 332.
  • the post-processor module 330 for the electrical acoustic signals 322, 324 simultaneously performs a comparison with acoustic signals / data of desired or known speakers whose acoustic signals / data are stored in a database 340. If the post-processor module 330 identifies a known speaker or acoustic source 102 in an electrical acoustic signal 322, 324, ie ambient sound 100, it selects this electrical speaker signal 322 and outputs it in an amplified manner relative to other acoustic signals 324 as output electrical acoustic signal 332 (essentially corresponds to the acoustic signal 322).
  • the database 340 in which speech profiles P of the speakers are stored is located in the post-processor module 330, the signal processor 300 or in the hearing aid 1.
  • a remote control 10 belongs to the hearing aid 1 or the hearing aid 1 a remote control 10 (ie the remote control 10 is part of the hearing aid 1), it is also possible to accommodate the database 340 in the remote control 10. This is quite advantageous, since the remote control 10 is not subject to such great size restrictions as the part of the hearing aid 1 which is on or in the ear, so that more storage space for the database 340 can be available.
  • a communication with a peripheral device of the hearing aid 1, z As a computer, since in such a case, a data interface necessary for communication can also be located within the remote control 10 (see also below).
  • Fig. 3 shows the inventive method and the hearing aid 1 according to the invention in the processing of three acoustic signal sources s 1 (t), s 2 (t), s n (t), which together form the ambient sound 100.
  • This ambient sound 100 is recorded in each case by three microphones, each of which outputs an electrical microphone signal x 1 (t), x 2 (t), x n (t) to the signal processor 300.
  • the signal processor 300 has no preprocessor module 310, but may preferably contain this. (This also applies analogously to the first embodiment of the invention).
  • the electrical microphone signals x 1 (t), x 2 (t), x n (t) are input signals to the BSS module 320, which in each case in the electrical microphone signals x 1 (t), x 2 (t), x n (t) contained acoustic signals by acoustic sources s 1 (t), s 2 (t), s n (t) s' 1 (t), s' 2 (t), s' n (t) outputs to the post-processor module 330 as electrical output signals.
  • the hearing aid 1 is at least sufficiently capable of delivering such an acoustic signal s ' 1 (t), s' n (t) to the hearing aid wearer in such a way that he or she can sufficiently correctly interpret the information contained therein, ie at least sufficiently understands the speaker information contained therein.
  • the third acoustic signal s' 2 (t) (in this embodiment largely corresponds to the acoustic source s 2 (t)) contains no or hardly usable speaker information.
  • the post-processor module 330 will now be the electric acoustic signals s' 1 (t), s' 2 (t), s' n (t) examined to determine whether it contains speech information of known speakers (speakers Information). These voice information of the known speakers are stored as voice profiles P in the database 340 of the hearing aid 1.
  • the database 340 can in turn be provided in the remote control 10, the hearing aid 1, the signal processing 300 or the post-processor module 330.
  • the post-processor module 330 compares the data stored in the database 340 speech profile P with the electric acoustic signals s '1 (t), s' 2 (t), s 'n (t) and identified in this example, while the relevant electrical speaker signals s' 1 (t) and s' n (t).
  • a profile derivation preferably takes place by the post-processor module 330, which compares all voice profiles P of the database 340 with the electrical acoustic signals s' 1 (t), s' 2 (t), s' n (t).
  • This is preferably done by the post-processor module 330 a profile evaluation of the electrical acoustic signals s' 1 (t), s' 2 (t), s' n (t) instead, the profile evaluation acoustic profiles P 1 (t), P 2 (t), P n (t) created and these acoustic profiles P 1 (t), P 2 (t), P n (t) can then be compared with the language profiles P of the database 340.
  • the post-processor module 330 identifies and outputs the corresponding electrical talker signal s ' 1 (t), s' n (t) this as an electrical acoustic signal 332 to the speaker 400 from.
  • the identification of the acoustic profiles P 1 (t), P 2 (t), P n (t) can take place in that the hearing aid 1 probabilities p 1 (t), p 2 (t), p n (t) for the respective Acoustic profile P 1 (t), P 2 (t), P n (t) with respect to the respective voice profiles P created. This preferably takes place during the profile adjustment, which is followed by a corresponding signal selection. Ie. it is possible by means of the profiles stored in the database 340 to give a respective acoustic profile P 1 (t), P 2 (t), P n (t) a probability p 1 (t), p 2 (t), p n (t ) for a respective speaker 1, 2, n. In the signal selection, it is then possible to select those electrical acoustic signals s' 1 (t), s' 2 (t), s' n (t) which correspond at least to a certain probability for a speaker 1, 2, ..., n.
  • the hearing aid 1 can be brought into a training mode in which the database 340 can be supplied with electrical acoustic signals of desired speakers.
  • the provision of the database 340 with new language profiles P from desired or known speakers can also take place via a data interface of the hearing aid 1. This makes it possible, the hearing aid 1 (also via its remote control 10) to connect to a peripheral device.
  • a blind source separation method is combined with a speaker classification algorithm. This ensures that the hearing aid wearer can always best or most clearly perceive his or her preferred speaker or preferred speaker.
  • the hearing aid 1 which of the electrical speaker signals 322; s ' 1 (t), s' n (t) can preferably be reproduced on the hearing aid wearer as the output sound 402, s "(t) .
  • This can be an angle of incidence of the corresponding acoustic source 102, 104; s 1 (t), s 2 (t ), s n (t) may be on the hearing aid 1, with certain angles of incidence being preferred, for example the 0 ° viewing direction or a 90 ° lateral direction of the hearing aid wearer may be preferred s ' 1 (t), s' n (t) - even apart from their different probabilities p 1 (t), p 2 (t), p n (t) for speaker information contained therein (this of course also applies to all Embodiments of the invention) - to weight whether one of the electrical speaker signals 322; s ' 1 (t), s' n (t) is a predominant or
  • this other module of the hearing aid 1 is intended to be incorporated into the post-processor module 330, ie, in such an embodiment, the post-processor module 330 comprises this other module.
  • the present document relates inter alia to a post-processor module 20 of the EP 1 017 253 A2 (Reference numeral after the EP 1 017 253 A2 ), in which by means of a profile evaluation one or more known speakers for an electrical output signal of the post-processor module 20 are selected and reproduced therein at least amplified. See also paragraph [0025] of EP 1 017 253 A2 . Further, in the invention, the preprocessor module and the BSS module such as the preprocessor 16 and the unmixer 18 of the EP 1 017 253 A2 be constructed. See in particular paragraphs [0008] to [0024] of EP 1 017 253 A2 ,
  • the invention ties in with the EP 1 655 998 A2 to provide for a hearing aid wearer stereo voice signals or to enable a binaural acoustic care with speech.
  • the invention (notation according to the EP 1 655 998 A2 ) the output signals z1, z2 respectively for the right (k) and left (k) of a second filter device of EP 1 655 998 A2 (please refer Fig. 2 and 3 ) for accentuation / amplification of the corresponding acoustic source downstream.
  • it is possible to use the invention in the EP 1 655 998 A2 apply to the effect that it intervenes according to the teached there blind source separation and even before the second filter device. Ie. According to the invention, a selection of a signal y1 (k), y2 (k) takes place (see Fig. 3 of the EP 1 655 998 A2 ).

Description

  • Die Erfindung betrifft ein Verfahren zum Betreiben einer Hörhilfe bestehend aus einem einzelnen oder zwei Hörgeräten. Ferner betrifft die Erfindung eine entsprechende Hörhilfe bzw. ein entsprechendes Hörgerät.
  • Wenn man jemandem oder etwas zuhört, sind Störgeräusche oder unerwünschte akustische Signale allgegenwärtig, die mit einer Stimme eines Gegenübers oder einem erwünschten akustischen Signal interferieren. Menschen mit einer Hörschwäche sind insbesondere anfällig für solche Störgeräusche. Konversationen im Hintergrund, akustische Beeinträchtigungen von digitalen Geräten (Mobiltelefonen), Auto- oder anderer Lärm in der Umgebung können es für einen Menschen mit einer Hörschwäche sehr schwierig machen, einen gewünschten Sprecher zu verstehen. Eine Reduktion des Lärmpegels in einem akustischen Signal, gekoppelt mit einem automatischen Fokus auf eine gewünschte akustische Signalkomponente kann die Leistungsfähigkeit eines elektronischen Sprachprozessors, wie er in modernen Hörhilfen Verwendung findet, signifikant verbessern.
  • In der jüngsten Vergangenheit wurden Hörhilfen mit digitaler Signalverarbeitung eingeführt. Sie enthalten ein oder mehrere Mikrofone, A/D-Wandler, digitale Signalprozessoren und Lautsprecher. Für gewöhnlich teilen die digitalen Signalprozessoren die einkommenden Signale in eine Mehrzahl von Frequenzbändern auf. Innerhalb eines jeden Bands kann eine Signalverstärkung und -verarbeitung individuell in Übereinstimmung mit Anforderungen für einen bestimmten Träger der Hörhilfe eingestellt werden, um die Verständlichkeit eines bestimmten Bestandteils zu verbessern. Ferner sind bei der digitalen Signalverarbeitung Algorithmen zur Rückkopplungs- und Störgeräuschminimierung verfügbar, die jedoch signifikante Nachteile aufweisen. Nachteilig bei den derzeit vorhandenen Algorithmen zur Störgeräuschminimierung ist z. B. deren maximal erreichbare Verbesserung in der Hörhilfeakustik, wenn sich Sprach- und Hintergrundgeräusche in derselben Frequenzregion befinden und sie daher unfähig sind, zwischen gesprochener Sprache und Hintergrundgeräusch zu unterscheiden. (Siehe auch EP 1 017 253 A2 )
  • Dies ist in der akustischen Signalverarbeitung eines der am Häufigsten auftretenden Probleme, nämlich aus verschiedenen, sich überlagernden, akustischen Signalen eines oder eine Mehrzahl davon herauszufiltern. Dies wird auch als das sogenannte "Cocktail-Party-Problem" bezeichnet. Hierbei mischen sich die unterschiedlichsten Geräusche, wie Musik und Unterhaltungen zu einer undefinierbaren Geräuschkulisse. Trotzdem fällt es einem Menschen im Allgemeinen nicht schwer, sich in einer solchen Situation mit einem Gesprächspartner zu unterhalten. Es ist daher für Hörhilfeträger wünschenswert, sich in ebensolchen Situationen genauso unterhalten zu können, wie Menschen ohne Hörschwäche.
  • Die EP 1 303 166 A2 offenbart ein Verfahren zum Betreiben einer Hörhilfe, wobei zur Verbesserung einer Kommunikation zwischen einem Hörhilfeträger und einer oder einer Mehrzahl von Bezugspersonen, unabhängig von momentanen Positionen zueinander eine jeweilige Bezugspersonrichtung bestimmt wird. Hierfür weist Hörhilfe neben einer Signalverarbeitungseinheit eine Richtungsidentifikationseinheit auf, mittels welcher die jeweilige Bezugspersonrichtung bestimmbar ist. Die Bezugspersonrichtung wird durch eine Sprechererkennung bestimmt, und ein Parametersatz einer Übertragungsfunktion der Hörhilfe kann entsprechend einer gewünschten Richtungscharakteristik geädert werden.
  • Es gibt in der akustischen Signalverarbeitung räumliche (z. B. Richtmikrofon, Beamforming), statistische (z. B. Blinde Quellentrennung (Blind Source Separation)) oder gemischte Verfahren, die u. a. mittels Algorithmen aus mehreren gleichzeitig aktiven Schallquellen eine einzige oder eine Mehrzahl davon abtrennen können. So ermöglicht es die Blinde Quellentrennung mittels statistischer Signalverarbeitung von mindestens zwei Mikrofonsignalen, eine Trennung von Quellsignalen ohne Vorwissen über deren geometrische Anordnung durchzuführen. Dieses Verfahren hat in der Anwendung in Hörhilfen Vorteile gegenüber herkömmlichen Richtmikrofonansätzen. Prinzipbedingt lassen sich mit einem solchen BSS-Verfahren (BSS: Blind Source Separation) mit n Mikrofonen, bis zu n Quellen trennen, d. h. n Ausgangssignale generieren.
  • Verfahren zur Blinden Quellentrennung sind aus der Literatur bekannt, wobei Schallquellen über die Analyse wenigstens zweier Mikrofonsignale analysiert werden. Ein solches Verfahren und eine entsprechende Vorrichtung dafür ist aus der EP 1 017 253 A2 bekannt. Entsprechende Anknüpfungspunkte der Erfindung an die EP 1 017 253 A2 werden hauptsächlich am Ende dieser Schrift gegeben.
  • In einer speziellen Anwendung zur Blinden Quellentrennung bei Hörhilfen erfordert dies eine Kommunikation zweier Hörgeräte (Analyse wenigstens zweier Mikrofonsignale (rechts/links)) und bevorzugt eine binaurale Auswertung der Signale beider Hörgeräte, die bevorzugt drahtlos erfolgt. Alternative Kopplungen der beiden Hörgeräte sind ebenfalls bei einer solchen Anwendung möglich. Eine solche binaurale Auswertung unter einem zur Verfügung Stellen von Stereosignalen für einen Hörhilfeträger wird in der EP 1 655 998 A2 gelehrt. Entsprechende Anknüpfungspunkte der Erfindung an die EP 1 655 998 A2 werden am Ende dieser Schrift gegeben.
  • Die Steuerung von Richtmikrofonen im Sinne einer Blinden Quellentrennung unterliegt Mehrdeutigkeiten, sobald mehrere konkurrierende Nutzquellen, z. B. Sprecher, gleichzeitig vorliegen. Die Blinde Quellentrennung erlaubt zwar prinzipiell die Separation der verschiedenen Quellen, sofern diese räumlich getrennt sind; durch die Mehrdeutigkeit wird jedoch der potenzielle Nutzen eines Richtmikrofons gemindert, obwohl gerade in solchen Szenarien ein Richtmikrofon zur Verbesserung der Sprachverständlichkeit von großem Nutzen sein kann.
  • Die Hörhilfe bzw. die mathematischen Algorithmen zur Blinden Quellentrennung stehen prinzipiell vor dem Problem, entscheiden zu müssen, welche der durch die Blinde Quellentrennung erzeugten Signale am Vorteilhaftesten an den Benutzer des Algorithmus, also den Hörhilfeträger weitergegeben werden sollen. Dies ist für die Hörhilfe eine prinzipiell unlösbare Aufgabe, da die Auswahl der Wunschakustikquelle direkt vom momentanen Willen des Hörhilfeträgers abhängt und somit einem Auswahlalgorithmus nicht als Eingangsgröße vorliegen kann. Die durch diesen Algorithmus getroffene Auswahl muss sich also auf Annahmen über den wahrscheinlichen Willen des Hörers stützen.
  • Im Stand der Technik wird von einer Bevorzugung eines akustischen Signals durch den Hörhilfeträger aus einer 0°-Richtung, also der Blickrichtung des Hörhilfeträgers ausgegangen. Dies ist insofern realistisch, als dass in einer akustisch schwierigen Situation der Hörhilfeträger seinen aktuellen Gesprächspartner anschauen würde, um weitere Cues zu bekommen, die die Sprachverständlichkeit des Gesprächspartners erhöhen (z. B. Lippenbewegungen). Hierdurch wird der Hörhilfeträger jedoch dazu gezwungen, seinen Gesprächspartner anzusehen, damit das Richtmikrofon zu einer erhöhten Sprachverständlichkeit führt. Dies ist insbesondere lästig, wenn der Hörhilfeträger sich mit genau einer einzigen Person unterhalten will, d. h. nicht in eine Kommunikation mit mehreren Sprechern eingebunden ist, und seinen Gesprächspartner nicht immer ansehen möchte/muss.
  • Darüber hinaus ist für eine "richtige" bzw. vom Hörhilfeträger präferierte Akustikquellenwahl zeitlich nach einem Quellentrennverfahren bislang kein technisches Verfahren bekannt.
  • Unter der Annahme, dass gesprochene Sprache bekannter Sprecher gegenüber gesprochener Sprache unbekannter Sprecher bzw. gegenüber nicht sprachlichen Akustiksignalen im Vordergrund des Interesses von Hörhilfeträgern steht, lässt sich ein flexibleres Akustiksignal-Auswahlverfahren formulieren, das nicht durch eine geometrische Akustikquellenverteilung eingeschränkt ist. Es ist daher eine Aufgabe der Erfindung, ein verbessertes Verfahren zum Betreiben einer Hörhilfe, sowie eine verbesserte Hörhilfe anzugeben. Insbesondere ist es eine Aufgabe der Erfindung, welches Ausgangssignal einer Blinden Quellentrennung, dem Hörhilfeträger akustisch zugeführt wird. Es ist somit eine Aufgabe der Erfindung, herauszufinden, welche mit hoher Warscheinlichkeit eine bevorzugte Sprecherakustikquelle des Hörhilfeträgers ist.
  • Erfindungsgemäß wird eine Auswahl der wiederzugebenden Sprecherakustikquelle dahingehend getroffen, dass - falls vorhanden - immer ein bevorzugter bzw. dem Hörhilfeträger bekannter Sprecher durch die Hörhilfe wiedergegeben wird. Erfindungsgemäß wird dafür eine Datenbank mit Profilen eines einzelnen oder mehrerer solcher präferierter Sprecher angelegt. Für die Ausgangssignale einer Blinden Quellentrennung werden dann Akustikprofile bestimmt bzw. ausgewertet und mit den Einträgen in der Datenbank verglichen. Für den Fall, dass eines der Ausgangssignale der Quellentrennung mit dem oder einem Datenbankprofil übereinstimmt, wird dann explizit dieses elektrische Akustiksignal bzw. dieser Sprecher ausgewählt und dem Hörhilfeträger über die Hörhilfe zur Verfügung gestellt. Eine solche Entscheidung kann Priorität gegenüber anderen Entscheidungen haben, die für einen solchen Fall einen niedrigeren Entscheidungsrang besitzen.
  • Erfindungsgemäß wird ein Verfahren zum Betreiben einer Hörhilfe bereitgestellt, wobei zur Verfolgung und selektiven Verstärkung einer Sprecherakustikquelle bzw. einem elektrischen Sprechersignal, durch eine Signalverarbeitung der Hörhilfe für bevorzugt sämtliche ihm zur Verfügung stehenden, elektrischen Akustiksignale ein Vergleich mit Sprachprofilen von gewünschten bzw. bekannten Sprechern erfolgt, wobei die Sprachprofile in einer Datenbank gespeichert sind, die sich bevorzugt in dem oder den Hörgeräten der Hörhilfe befindet. Die Sprecherakustikquelle oder die Sprecherakustikquellen, welche mit den Sprachprofilen der Datenbank weitestgehend übereinstimmen, werden durch die Signalverarbeitung verfolgt und in einem akustischen Ausgangssignal der Hörhilfe besonders berücksichtigt.
  • Ferner wird erfindungsgemäß eine Hörhilfe zur Verfügung gestellt, wobei mittels eines Akustikmoduls (Signalverarbeitung) der Hörhilfe durch eine Blinde Quellentrennung erzeugte, elektrische Akustiksignale mit Sprachprofileinträgen einer Datenbank abgleichbar sind. Das Akustikmodul wählt dazu aus den elektrischen Akustiksignalen wenigstens ein mit einem Sprachprofil eines gewünschten bzw. bekannten Sprechers übereinstimmendes elektrisches Sprechersignal aus, wobei dieses elektrische Sprechersignal in einem Ausgangssignal der Hörhilfe besonders berücksichtigbar ist.
  • Erfindungsgemäß ist es möglich, je nach Anzahl vorhandener Mikrofone in der Hörhilfe, eine einzige oder eine Mehrzahl von Sprecherakustikquellen aus dem Umgebungsschall auszuwählen und im Ausgangsschall der Hörhilfe zu betonen. Hierbei ist es möglich, eine Lautstärke der Sprecherakustikquelle bzw. der Sprecherakustikquellen im Ausgangsschall der Hörhilfe beliebig einzustellen.
  • In einer bevorzugten Ausführungsform der Erfindung weist die Signalverarbeitung ein Entmischmodul auf, das als eine Einrichtung zur Blinden Quellentrennung zum Auftrennen der Akustikquellen des Umgebungsschalls arbeitet. Ferner weist die Signalverarbeitung ein Postprozessormodul auf, das beim Detektieren einer Akustikquelle mit hoher Sprecherwahrscheinlichkeit einen entsprechenden Betriebsmodus "Sprecher" in der Hörhilfe einrichtet. Ferner kann die Signalverarbeitung ein Preprozessormodul aufweisen - dessen elektrische Ausgangssignale die elektrischen Eingangssignale des Entmischmoduls sind -, das elektrische Akustiksignale, die von Mikrofonen der Hörhilfe stammen, normiert und aufbereitet. In Bezug auf das Preprozessormodul und das Entmischmodul (Unmixer) sei auf die EP 1 017 253 A2 Absätze [0008] bis [0023] verwiesen.
  • Erfindungsgemäß findet ein Vergleich der in der Datenbank gespeicherten Sprachprofile mit den durch die Hörhilfe aktuell empfangenen Akustikprofilen statt, bzw. es findet ein Abgleich der durch die Signalverarbeitung aktuell erzeugten Profile der elektrischen Akustiksignale mit den in der Datenbank gespeicherten Sprachprofilen statt. Bevorzugt findet dies durch die Signalverarbeitung bzw. das Postprozessormodul statt, wobei die Datenbank Teil der Signalverarbeitung bzw. des Postprozessormoduls oder Teil der Hörhilfe sein kann. Das Postprozessormodul verfolgt und selektiert das oder die elektrischen Sprechersignale und erzeugt ein entsprechendes elektrisches Ausgangsakustiksignal für einen Lautsprecher der Hörhilfe.
  • In einer bevorzugten Ausführungsform der Erfindung weist die Hörhilfe eine Datenschnittstelle auf, über welche die Hörhilfe mit einem Peripheriegerät kommunizieren kann. Hierdurch ist es z. B. möglich, Sprachprofile der gewünschten bzw. bekannten Sprecher mit anderen Hörhilfen auszutauschen. Darüber hinaus ist es möglich, Sprachprofile in einem Computer zu bearbeiten und anschließend wiederum auf die Hörhilfe zu übertragen und diese dadurch zu aktualisieren. Ferner kann durch die Datenschnittstelle der begrenzte Speicherplatz innerhalb der Hörhilfe besser genutzt werden, da dadurch ein externes Verarbeiten und somit ein "Verschlanken" der Sprachprofile ermöglicht ist. Des Weiteren können auf einem externen Computer mehrere Datenbanken mit unterschiedlichen Sprachprofilen, z. B. privat und geschäftlich, angelegt werden und die Hörhilfe damit für eine bevorstehende Situation entsprechend konfiguriert werden.
  • Durch ein Schalten der Hörhilfe in einen Trainingsmodus kann die Hörhilfe bzw. die Signalverarbeitung auf eine Sprachcharakteristik eines neuen Sprechers trainiert werden. Ferner ist es auch möglich, zusätzliche Sprachprofile desselben Sprechers anzulegen, was z. B. für unterschiedliche Akustiksituationen, z. B. nah/fern, Vorteil ist.
  • Für den Fall, dass mehrere bzw. zu viele oder kein bevorzugter Sprecher erkannt wird, weist die Hörhilfe bzw. die Signalverarbeitung eine Einrichtung auf, welche eine nachgeordnete entsprechende Akustikquellen-Auswahl trifft. Eine solche nachgeordnete Akustikquellen-Auswahl könnte z. B. dergestalt aussehen, dass, bei Erkennen von (unbekannter) Sprache in einem elektrischen Akustiksignal derjenige Sprecher bzw. diejenigen Sprecher ausgewählt werden, die sich in Blickrichtung des Hörhilfeträgers befinden. Darüber hinaus ist es möglich, diese nachgeordnete Entscheidung dahingehend zu treffen, welcher Sprecher sich möglichst in der Nähe des Hörhilfeträgers befindet bzw. am Lautesten spricht.
  • Sollte die Hörhilfe eine Fernbedienung umfassen, so ist es möglich, die Datenbank innerhalb der Fernbedienung vorzusehen. Hierdurch kann die Hörhilfe insgesamt kleiner gebaut werden und mehr Speicherplatz für Sprachprofile bieten. Die Fernbedienung kann dabei drahtlos oder drahtgebunden mit der Hörhilfe kommunizieren.
  • Zusätzliche bevorzugte Ausführungsformen der Erfindung ergeben sich aus den übrigen abhängigen Ansprüchen.
  • Die Erfindung wird im Folgenden anhand von Ausführungsbeispielen unter Bezugnahme auf die beigefügte Zeichnung näher erläutert. In der Zeichnung zeigen:
  • Fig. 1
    ein Blockdiagramm einer Hörhilfe gemäß dem Stand der Technik, mit einem Modul für eine Blinde Quellentrennung;
    Fig. 2
    ein Blockdiagramm einer erfindungsgemäßen Hörhilfe mit einer erfindungsgemäßen Signalverarbeitung, bei der Verarbeitung eines Umgebungsschalls mit zwei akustisch voneinander unabhängigen Akustikquellen; und
    Fig. 3
    ein Blockdiagramm einer zweiten Ausführungsform der erfindungsgemäßen Hörhilfe bei der gleichzeitigen Verarbeitung von drei voneinander akustisch unabhängigen Akustikquellen des Umgebungsschalls.
  • Im Folgenden ist im Rahmen der Erfindung (Fig. 2 & 3) hauptsächlich von einem BSS-Modul die Rede, welches einem Modul für eine Blinde Quellentrennung entspricht. Ferner ist im Folgenden von einem "Verfolgen" eines elektrischen Sprechersignals durch eine Hörhilfe eines Hörhilfeträgers die Rede. Hierunter soll eine von der Hörhilfe bzw. einer Signalverarbeitung der Hörhilfe bzw. einem Postprozessormodul der Signalverarbeitung getroffene Auswahl eines oder einer Mehrzahl von elektrischen Sprechersignalen verstanden werden, welche von der Hörhilfe elektrisch oder elektronisch von anderen Akustikquellen des Umgebungsschalls selektiert werden und welche in einer gegenüber den anderen Akustikquellen des Umgebungsschalls verstärkten Weise, d. h. in einer für den Hörhilfeträger lauter empfundenen Weise, wiedergegeben werden. Beim Verfolgen des elektrischen Sprechersignals wird durch die Hörhilfe eine Position des Hörhilfeträgers im Raum, insbesondere eine Position der Hörhilfe im Raum, d. h. eine Blickrichtung des Hörhilfeträgers, bevorzugt nicht berücksichtigt.
  • Die Fig. 1 zeigt den Stand der Technik, wie er durch die EP 1 017 253 A2 (siehe dort Absatz [0008]ff) gelehrt wird. Hierbei weist eine Hörhilfe 1 zwei Mikrofone 200, 210, die zusammen ein Richtmikrofonsystem bilden können, zum Erzeugen zweier elektrischer Akustiksignale 202, 212 auf. Eine solche Mikrofonanordnung verleiht den beiden elektrischen Ausgangssignalen 202, 212 der Mikrofone 200, 210 eine inhärente Richtungscharakteristik. Jedes der Mikrofone 200, 210 nimmt einen Umgebungsschall 100 auf, der eine Zusammensetzung aus unbekannten, akustischen Signalen einer unbekannten Anzahl von Akustikquellen ist.
  • Im Stand der Technik werden die elektrischen Akustiksignale 202, 212 hauptsächlich in drei Stufen aufbereitet. In einer ersten Stufe werden die elektrischen Akustiksignale 202, 212 in einem Preprozessormodul 310 zur Verbesserung der Richtungscharakteristik vorverarbeitet, welche mit einer Normalisierung der ursprünglichen Signale beginnt (Angleichen der Signalstärke). In einer zweiten Stufe findet eine Blinde Quellentrennung in einem BSS-Modul 320 statt, wobei die Aus- gangssignale des Preprozessormoduls 310 einem Entmischvorgang unterliegen. Darauf folgend werden die Ausgangssignale des BSS-Moduls 320 in einem Postprozessormodul 330 nachverarbeitet, um ein gewünschtes elektrisches Ausgangssignal 332 zu erzeugen, welches als Eingangssignal für einen Hörer 400 bzw. einen Lautsprecher 400 der Hörhilfe 1 dient, und einen dadurch erzeugten Schall an den Hörhilfeträger abzugeben. Gemäß Spezifikation der EP 1 017 253 A2 sind die Schritte 1 und 3, also das Preprozessormodul 310 und das Postprozessormodul 330 optional.
  • Fig. 2 zeigt nun eine erste Ausführungsform der Erfindung, wobei sich in einer Signalverarbeitung 300 der Hörhilfe 1 ein Entmischmodul 320, im Folgenden als BSS-Modul 320 bezeichnet, befindet, dem ein Postprozessormodul 330 nachgeschaltet ist. Hierbei kann wiederum ein Preprozessormodul 310 vorgesehen sein, das die Eingangssignale für das BSS-Modul 320 entsprechend auf- bzw. vorbereitet. Die Signalverarbeitung 300 wird bevorzugt in einem DSP (Digital Signal Processor) oder in einem ASIC (Application Specific Integrated Circuit) durchgeführt.
  • Im Folgenden wird davon ausgegangen, dass im Umgebungsschall 100 zwei voneinander unabhängige Akustik- 102, 104 bzw. Signalquellen 102, 104 existieren, wobei eine dieser Akustikquellen 102 eine Sprecherquelle 102 eines dem Hörhilfeträger bekannten Sprechers und die andere Akustikquelle 104 eine Geräuschquelle 104 ist. Die Sprecherakustikquelle 102 soll von der Hörhilfe 1 bzw. der Signalverarbeitung 300 selektiert und verfolgt werden und ein hauptsächlicher Akustikbestandteil des Hörers 400 sein, sodass ein Ausgangsschall 402 des Lautsprechers 400 hauptsächlich dieses Signal (102) enthält.
  • Die beiden Mikrofone 200, 210 der Hörhilfe 1 nehmen jeweils eine Mischung der beiden akustischen Signale 102, 104 auf - verdeutlicht durch den gepunkteten Pfeil (repräsentiert das präferierte, akustische Signal 102) und den durchgezogenen Pfeil (repräsentiert das nicht präferierte, akustische Signal 104) - und geben diese entweder an das Preprozessormodul 310 oder gleich an das BSS-Modul 320 als elektrische Eingangssignale ab. Die beiden Mikrofone 200, 210 können beliebig verteilt sein. Sie können sich dabei in einem einzelnen Hörgerät 1 der Hörhilfe 1 befinden oder auf beide Hörgeräte 1 verteilt sein. Darüber hinaus ist es möglich, z. B. eines oder beide Mikrofone 200, 210 außerhalb der Hörhilfe 1, z. B. an einem Kragen oder in einem Stift, vorzusehen, solange eine Kommunikation mit der Hörhilfe 1 gewährleistet ist. D. h. auch, dass die elektrischen Eingangssignale des BSS-Moduls 320 nicht notwendigerweise von einem einzelnen Hörgerät 1 der Hörhilfe 1 stammen müssen. Selbstverständlich sind mehr als zwei Mikrofone 200, 210 für eine Hörhilfe 1 realisierbar. Bevorzugt weist eine Hörhilfe 1 bestehend aus zwei Hörgeräten 1 insgesamt vier oder sechs Mikrofone auf.
  • Das Preprozessormodul 310 bereitet die Daten für das BSS-Modul 320 auf, welches seinerseits aus seinen beiden jeweils gemischten Eingangssignalen je nach Befähigung zwei getrennte Ausgangssignale bildet, wobei jedes dieser Ausgangssignale eines der beiden akustischen Signale 102, 104 repräsentiert. Die beiden getrennten Ausgangssignale des BSS-Moduls 320 sind Eingangssignale für das Postprozessormodul 330, in welchem nun entschieden wird, welches der beiden akustischen Signale 102, 104 an den Lautsprecher 400 als elektrisches Ausgangssignal 332 ausgegeben wird.
  • Hierfür (siehe auch Fig. 3) führt das Postprozessormodul 330 für die elektrischen Akustiksignale 322, 324 simultan einen Vergleich mit Akustiksignalen/-daten gewünschter bzw. bekannter Sprecher durch, deren Akustiksignale/-daten in einer Datenbank 340 abgelegt sind. Identifiziert das Postprozessormodul 330 in einem elektrischen Akustiksignal 322, 324, also im Umgebungsschall 100, einen bekannten Sprecher bzw. eine bekannte Sprecherakustikquelle 102, so wählt er dieses elektrische Sprechersignal 322 aus und gibt es in einer gegenüber anderen Akustiksignalen 324 verstärkten Weise als elektrisches Ausgangsakustiksignal 332 (entspricht im Wesentlichen dem Akustiksignal 322) aus.
  • Die Datenbank 340, in welcher Sprachprofile P der Sprecher gespeichert sind, befindet sich im Postprozessormodul 330, der Signalverarbeitung 300 oder in der Hörhilfe 1. Darüber hinaus ist es möglich, falls eine Fernbedienung 10 zur Hörhilfe 1 zugehörig ist bzw. die Hörhilfe 1 eine Fernbedienung 10 umfasst (d. h. die Fernbedienung 10 ist Teil der Hörhilfe 1), so ist es auch möglich, die Datenbank 340 in der Fernbedienung 10 unterzubringen. Dies ist durchaus vorteilhaft, da die Fernbedienung 10 nicht so starken Größenrestriktionen unterworfen ist, wie der Teil der Hörhilfe 1, welcher sich am oder im Ohr befindet, sodass mehr Speicherplatz für die Datenbank 340 zur Verfügung stehen kann. Darüber hinaus wird eine Kommunikation mit einem Peripheriegerät der Hörhilfe 1, z. B. einem Computer erleichtert, da sich in einem solchen Fall eine zur Kommunikation notwendige Datenschnittstelle ebenfalls innerhalb der Fernbedienung 10 befinden kann (siehe auch unten).
  • Fig. 3 zeigt das erfindungsgemäße Verfahren und die erfindungsgemäße Hörhilfe 1 beim Verarbeiten von drei akustischen Signalquellen s1(t), s2(t), sn(t), die zusammengesetzt den Umgebungsschall 100 bilden. Dieser Umgebungsschall 100 wird jeweils von drei Mikrofonen aufgenommen, die jeweils ein elektrisches Mikrofonsignal x1(t), x2(t), xn(t) an die Signalverarbeitung 300 ausgeben. Hierbei weist die Signalverarbeitung 300 kein Preprozessormodul 310 auf, kann dieses jedoch vorzugsweise enthalten. (Dies gilt analog auch für die erste Ausführungsform der Erfindung). Natürlich ist es auch möglich, über n Mikrofone x, n Akustikquellen s gleichzeitig zu verarbeiten, was durch die Punkte (...) in der Fig. 3 verdeutlicht ist.
  • Die elektrischen Mikrofonsignale x1(t), x2(t), xn(t) sind Eingangssignale an das BSS-Modul 320, welches die jeweils in den elektrischen Mikrofonsignalen x1(t), x2(t), xn(t) enthaltenen akustischen Signale nach Akustikquellen s1(t), s2(t), sn(t) auftrennt und als elektrische Ausgangssignale s'1(t), s'2(t), s'n(t) an das Postprozessormodul 330 ausgibt.
  • Im Folgenden enthalten zwei elektrische Akustiksignale, nämlich s'1(t) und s'n(t) (dies entspricht in diesem Ausführungsbeispiel weitestgehend den Akustikquellen s1(t) und sn(t)) hinreichende Sprecherinformationen. D. h. die Hörhilfe 1 ist wenigstens ausreichend befähigt ein solches Akustiksignal s'1(t), s'n(t) in einer Weise an den Hörhilfeträger abzugeben, dass dieser die darin enthaltenen Informationen ausreichend richtig interpretieren kann, d. h. darin enthaltene Sprecherinformationen wenigstens ausreichend versteht. Ferner ist es möglich, bei Vorliegen einer Vielzahl von Akustiksignalen s'1(t), s'n(t) mit ausreichenden Sprecherinformationen nur diejenigen auszuwählen deren Qualität am Besten ist oder welche der Hörhilfeträger präferiert. Das dritte Akustiksignal s'2(t) (entspricht in diesem Ausführungsbeispiel weitestgehend der Akustikquelle s2(t)) enthält keine oder kaum verwertbare Sprecherinformationen.
  • Innerhalb des Postprozessormoduls 330 werden nun die elektrischen Akustiksignale s'1(t), s'2(t), s'n(t) dahingehend untersucht, ob diese Sprachinformationen von bekannten Sprechern (Sprecherinformationen) enthält. Diese Sprachinformationen der bekannten Sprecher sind als Sprachprofile P in der Datenbank 340 der Hörhilfe 1 abgelegt. Die Datenbank 340 kann dabei wiederum in der Fernbedienung 10, der Hörhilfe 1, der Signalverarbeitung 300 oder dem Postprozessormodul 330 vorgesehen sein. Das Postprozessormodul 330 vergleicht nun die in der Datenbank 340 gespeicherten Sprachprofile P mit den elektrischen Akustiksignalen s'1(t), s'2(t), s'n(t) und identifiziert in diesem Beispiel dabei die relevanten elektrischen Sprechersignale s'1(t) und s'n(t).
  • Bevorzugt findet dabei durch das Postprozessormodul 330 ein Profilableich statt, der sämtliche Sprachprofile P der Datenbank 340 mit den elektrischen Akustiksignalen s'1(t), s'2(t), s'n(t) vergleicht. Bevorzugt findet hierbei durch das Postprozessormodul 330 eine Profilauswertung der elektrischen Akustiksignale s'1(t), s'2(t), s'n(t) statt, wobei die Profilauswertung Akustikprofile P1(t), P2(t), Pn(t) erstellt und diese Akustikprofile P1(t), P2(t), Pn(t) anschließend mit den Sprachprofilen P der Datenbank 340 verglichen werden können.
  • Enthält nun eines der elektrischen Akustiksignale s'1(t), s'2(t),..., s'n(t) einen der Hörhilfe 1 bekannten Sprecher, d. h. gibt es gewisse Übereinstimmungen der Akustikprofile P1(t), P2(t),..., Pn(t) mit einem oder mehreren der Profile P der Datenbank 340, so identifiziert das Postprozessormodul 330 das entsprechende elektrische Sprechersignal s'1(t), s'n(t) und gibt dieses als elektrisches Akustiksignal 332 an den Lautsprecher 400 ab. Der Lautsprecher 400 wiederum wandelt das elektrische Ausgangsakustiksignal 332 in den Ausgangsschall s"(t) = s"1(t) + s"n(t) um.
  • Das Identifizieren der Akustikprofile P1(t), P2(t), Pn(t) kann dadurch erfolgen, dass die Hörhilfe 1 Wahrscheinlichkeiten p1(t), p2(t), pn(t) für das jeweilige Akustikprofil P1(t), P2(t), Pn(t) in Bezug auf die jeweiligen Sprachprofile P erstellt. Dies findet bevorzugt beim Profilabgleich statt, dem eine entsprechende Signalauswahl folgt. D. h. durch die in der Datenbank 340 gespeicherten Profile ist es möglich, einem jeweiligen Akustikprofil P1(t), P2(t), Pn(t) eine Wahrscheinlichkeit p1(t), p2(t), pn(t) für einen jeweiligen Sprecher 1, 2, n zuzuordnen. Bei der Signalauswahl können dann diejenigen elektrischen Akustiksignale s'1(t), s'2(t), s'n(t) ausgewählt werden, die wenigstens einer gewissen Wahrscheinlichkeit für einen Sprecher 1, 2, ..., n entsprechen.
  • In einer bevorzugten Ausführungsform der Erfindung ist die Hörhilfe 1 in einen Trainingsmodus bringbar, in welchem die Datenbank 340 mit elektrischen Akustiksignalen gewünschter Sprecher versorgt werden kann. Das Versorgen der Datenbank 340 mit neuen Sprachprofilen P von gewünschten bzw. bekannten Sprechern kann auch über eine Datenschnittstelle der Hörhilfe 1 erfolgen. Hierdurch ist es möglich, die Hörhilfe 1 (auch über deren Fernbedienung 10) mit einem Peripheriegerät zu verbinden.
  • Erfindungsgemäß wird ein Blindes Quellentrennverfahren mit einem Sprecherklassifizierungs-Algorithmus kombiniert. Hierdurch ist sichergestellt, dass der Hörhilfeträger immer den von ihm bevorzugten Sprecher bzw. die von ihm bevorzugten Sprecher am Besten bzw. am Klarsten wahrnehmen kann.
  • Darüber hinaus ist es möglich, mittels der Hörhilfe 1 zusätzliche Informationen zu gewinnen, welche der elektrischen Sprechersignale 322; s'1(t), s'n(t) bevorzugt an den Hörhilfeträger als Ausgangsschall 402, s"(t) wiedergegeben werden. Dies kann ein Eintreffwinkel der entsprechenden Akustikquelle 102, 104; s1(t), s2(t), sn(t) auf die Hörhilfe 1 sein, wobei bestimmte Eintreffwinkel bevorzugt sind. So kann z. B. die 0°-Blickrichtung oder eine 90°-Seitenrichtung des Hörhilfeträgers bevorzugt sein. Ferner ist es möglich, die elektrischen Sprechersignale 322; s'1(t), s'n(t) dahingehend - auch abgesehen von ihren unterschiedlichen Wahrscheinlichkeiten p1(t), p2(t), pn(t) für darin enthaltene Sprecherinformationen (dies gilt natürlich ebenfalls für sämtliche Ausführungsformen der Erfindung) - zu gewichten, ob eines der elektrischen Sprechersignale 322; s'1(t), s'n(t) ein vorherrschendes oder ein vergleichsweise lautes elektrisches Sprechersignal 322; s'1(t), s'n(t) ist.
  • Erfindungsgemäß ist es nicht notwendig, die Profilauswertung der elektrischen Akustiksignale 322; 324; s'1(t), s'2(t), s'n(t) innerhalb des Postprozessormoduls 330 durchzuführen. Es ist ebenso möglich, z. B. aus Geschwindigkeitsgründen, die Profilauswertung durch ein anderes Modul der Hörhilfe 1 durchführen zu lassen und dem Postprozessormodul 330 nur noch die Auswahl (Profilabgleich) des oder der elektrischen Akustiksignale 322, 324; s'1(t), s'2(t), s'n(t) mit der oder den höchsten Sprecherwahrscheinlichkeiten p1(t), p2(t), pn(t) zu überlassen. Bei einer solchen Ausführungsform der Erfindung soll per Definition dieses andere Modul der Hörhilfe 1 mit in das Postprozessormodul 330 einbezogen sein, d. h. bei einer solchen Ausführungsform umfasst das Postprozessormodul 330 dieses andere Modul.
  • Vorliegende Schrift betrifft u. a. ein Postprozessormodul 20 der EP 1 017 253 A2 (Bezugszeichen nach der EP 1 017 253 A2 ), in welchem mittels einer Profilauswertung ein oder mehrere bekannte Sprecher für ein elektrisches Ausgangssignal des Postprozessormoduls 20 ausgewählt und darin wenigstens verstärkt wiedergegeben werden. Siehe hierzu auch Absatz [0025] der EP 1 017 253 A2 . Ferner kann bei der Erfindung das Preprozessormodul und das BSS-Modul wie der Preprozessor 16 und der Unmixer 18 der EP 1 017 253 A2 aufgebaut sein. Siehe hierzu insbesondere die Absätze [0008] bis [0024] der EP 1 017 253 A2 .
  • Darüber hinaus knüpft die Erfindung an die EP 1 655 998 A2 an, um für einen Hörhilfeträger Stereosprachsignale zur Verfügung zu stellen bzw. eine binaurale Akustikversorgung mit Sprache zu ermöglichen. Hierbei ist die Erfindung (Notation gemäß der EP 1 655 998 A2 ) den Ausgangssignalen z1, z2 jeweils für rechts(k) und links(k) einer zweiten Filtereinrichtung der EP 1 655 998 A2 (siehe Fig. 2 und 3) zur Akzentuierung/Verstärkung der entsprechenden Akustikquelle nachgeschaltet. Ferner ist es möglich, die Erfindung bei der EP 1 655 998 A2 dahingehend anzuwenden, dass sie nach der dort gelehrten Blinden Quellentrennung und noch vor der zweiten Filtereinrichtung eingreift. D. h. erfindungsgemäß findet dabei eine Auswahl eines Signals y1(k), y2(k) statt (siehe Fig. 3 der EP 1 655 998 A2 ).

Claims (41)

  1. Verfahren zum Betreiben einer Hörhilfe (1), wobei zum Verfolgen und Selektieren einer Sprecherakustikquelle (102; S1(t), sn(t)) eines Umgebungsschalls (100; 102, 104; s1(t), s2(t), ..., sn(t)) durch eine Signalverarbeitung (300) der Hörhilfe (1) ein Betriebsmodus "Sprecher" etabliert wird, wobei
    durch die Hörhilfe (1) aus dem aufgenommenen Umgebungsschall (100; 102, 104; s1(t), s2(t), ..., sn(t)) durch eine Blinde Quellentrennung elektrische Akustiksignale (322, 324; 332; s'1(t), s'2(t), ..., s'n(t)) erzeugt werden, aus welchen durch die Signalverarbeitung (300) mindestens ein elektrisches Sprechersignal (322; s'1(t), s'n(t)) durch eine Datenbank (340) mit Sprachprofilen (P) präferierter Sprecher identifiziert und ausgewählt wird, wobei
    das mindestens eines elektrische Sprechersignal (322; s'1(t), s'n(t)) derart in einem Ausgangsschall (402; s''(t); s"1(t)+s"n(t)) der Hörhilfe (1) selektiv berücksichtigt wird, dass es für den Hörhilfeträger im Vergleich mit einer anderen Akustikquelle (104; s2(t)) akustisch wenigstens hervortritt und dadurch vom Hörhilfeträger besser wahrgenommen wird.
  2. Verfahren gemäß Anspruch 1, wobei die Signalverarbeitung (300) der Hörhilfe (1) derart eingerichtet ist, dass eine Mehrzahl von akustisch voneinander unabhängigen Sprecherakustikquellen (102; s1(t), sn(t)) getrennt voneinander verfolgt werden.
  3. Verfahren gemäß Anspruch 1 oder 2, wobei durch die Signalverarbeitung (300) ein Vergleich der in der Datenbank (340) gespeicherten Sprachprofile (P) mit den elektrischen Akustiksignalen (322, 324; s'1(t), s'2(t), ..., s'n(t)) durchgeführt wird.
  4. Verfahren gemäß einem der Ansprüche 1 bis 3, wobei durch die Signalverarbeitung (300) eine Profilauswertung der elektrischen Akustiksignale (322, 324; s'1(t), s'2(t), ..., s'n(t)) stattfindet und dabei jedem Akustiksignal (322, 324; s'1(t), s'2(t), ..., s'n(t)) ein Akustikprofil (P1(t), P2(t), ..., Pn(t)) zuordnet wird.
  5. Verfahren gemäß Anspruch 4, wobei durch die Signalverarbeitung (300) ein Abgleich der in der Datenbank (340) gespeicherten Sprachprofile (P) mit den Akustikprofilen (P1(t), P2(t), ¨..., Pn(t)) durchgeführt wird.
  6. Verfahren gemäß einem der Ansprüche 4 bis 5, wobei beim Vergleich oder Abgleich der elektrischen Akustiksignale (322, 324; s'1(t), s'2(t), ..., s'n(t)) mit den in der Datenbank (340) gespeicherten Sprecherprofilen (P) bzw. mit den Akustikprofilen (P1(t), P2(t), ..., Pn(t)) der Sprecher, für das jeweilige elektrische Akustiksignal (s'1(t), s'2(t), ..., s'n(t)) eine Sprecherwahrscheinlichkeit (p1(t), p2(t), ..., pn(t)) bestimmt wird.
  7. Verfahren gemäß Anspruch 6, wobei durch die Signalverarbeitung (300) dasjenige oder diejenigen elektrischen Sprechersignale (322; s'1(t), ..., s'n(t)) bestimmt werden, dessen oder deren Sprecherwahrscheinlichkeiten (p1(t), ..., pn(t)) am Höchsten sind, und die dem Hörhilfeträger durch den Ausgangsschall (402; s"(t); s"1(t)+s"n(t)) der Hörhilfe (1) zu Verfügung gestellt werden.
  8. Verfahren gemäß einem der Ansprüche 1 bis 7, wobei elektrische Akustiksignale (324; s'2(t)), die keinen identifizierten Sprecher oder keine Sprache beinhalten, oder elektrische Akustiksignale (324; s'2(t)), die durch Störsignale zu stark gestört sind, durch die Signalverarbeitung (300) nicht berücksichtigt werden.
  9. Verfahren gemäß einem der Ansprüche 1 bis 8, wobei die in der Datenbank (340) gespeicherten Sprecherprofile (P) eine durch den Hörhilfeträger zuordenbare Rangfolge aufweisen, mit welcher sie bevorzugt über die Hörhilfe (1) wiedergegeben werden.
  10. Verfahren gemäß einem der Ansprüche 1 bis 9, wobei durch die Signalverarbeitung (300) dasjenige oder diejenigen elektrischen Sprechersignale (322; s'1(t), ..., s'n(t)) bestimmt werden, die dem Hörhilfeträger am Nächsten sind und/oder bezüglich eines bestimmten Winkels, bevorzugt eines 0°-Blickwinkels des Hörhilfeträgers, einfallen, und die dem Hörhilfeträger durch den Ausgangsschall (402; s"(t); s"1(t)+s"n(t)) der Hörhilfe (1) zu Verfügung gestellt werden.
  11. Verfahren gemäß einem der Ansprüche 1 bis 10, wobei durch die Signalverarbeitung (300) dasjenige oder diejenigen elektrischen Sprechersignale (322; s'1(t), ..., s'n(t)) bestimmt werden, die am Lautesten und/oder vorherrschend im Umgebungsschall (100; 102, 104; s1(t), s2(t), ..., sn(t)) sind, und die dem Hörhilfeträger durch den Ausgangsschall (402; s"(t); s"1(t)+s"n(t)) der Hörhilfe (1) zu Verfügung gestellt werden.
  12. Verfahren gemäß einem der Ansprüche 1 bis 11, wobei beim Identifizieren keines bzw. zu vieler elektrischer Sprechersignale (322; s'1(t), ..., s'n(t)) die Signalverarbeitung (300) eine nachgeordnete Akustikquellen-Auswahl trifft.
  13. Verfahren gemäß Anspruch 12, wobei für die nachgeordnete Akustikquellen-Auswahl ein zu priorisierendes, elektrisches Akustiksignal (322, 324; s'1(t), s'2(t), ..., s'n(t)) durch wenigstens eines der folgenden Kriterien:
    • seine Lautstärke;
    • seinen Frequenzbereich bzw. seine Frequenzextremata;
    • seinen Ton- bzw. Oktavumfang;
    • wenigstens einen nicht erkannten Sprecher bzw. Sprache;
    • Musik;
    • eine möglichst hohe Interferenzfreiheit; und/oder
    • zeitlich ähnliche Abstände einander ähnlicher akustischer Ereignisse - und/oder
    • durch ein Gegenteil obiger Aufzählungspunkte charakterisiert wird.
  14. Verfahren gemäß einem der Ansprüche 1 bis 13, wobei die Hörhilfe (1) bzw. die Signalverarbeitung (300) in einen Trainingsmodus gebracht werden kann, in welchem die Hörhilfe (1) bzw. die Signalverarbeitung (300) unbekannte Sprecher lernt.
  15. Verfahren gemäß Anspruch 14, wobei die Hörhilfe (1) im Trainingsmodus durch Mikrofone (200, 210) eine unbekannte Sprecherakustikquelle derart aufnehmen kann, dass durch die Hörhilfe (1) bzw. die Signalverarbeitung (300) ein Akustikprofil der unbekannten Sprecherakustikquelle generiert und bevorzugt dauerhaft gespeichert wird.
  16. Verfahren gemäß einem der Ansprüche 1 bis 15, wobei die Hörhilfe (1) eine Datenschnittstelle aufweist, durch welche die Hörhilfe (1) bzw. die Signalverarbeitung (300) unbekannte Sprecherprofile erhalten oder bekannte Sprachprofile (P) aktualisieren kann.
  17. Verfahren gemäß einem der Ansprüche 1 bis 16, wobei die Hörhilfe (1) durch ein Bedienelement zum Etablieren des Betriebsmodus "Sprecher" und oder zum Aufrufen des Trainingsmodus bedient wird.
  18. Verfahren gemäß Anspruch 17, wobei das Bedienelement der Hörhilfe (1) wenigstens teilweise an der Hörhilfe und/oder wenigstens teilweise an einer Fernbedienung (10) für die Hörhilfe (1) vorgesehen ist.
  19. Verfahren gemäß einem der Ansprüche 1 bis 18, wobei die Signalverarbeitung (300) ein als Blind Source Separation-Modul (320) ausgebildetes Entmischmodul (320) zum Auftrennen elektrischer Akustiksignale (312, 314; x1(t), x2(t), ..., xn(t)) und ein Postprozessormodul (330) aufweist, durch welches der Betriebsmodus "Sprecher" etabliert wird.
  20. Verfahren gemäß Anspruch 19, wobei ferner im Postprozessormodul (330) eine Lautstärke der elektrischen Akustiksignale (322, 324; s'1(t), (s'2(t),) ..., s'n(t)) für ein elektrisches Ausgangsakustiksignal (332) der Signalverarbeitung (300) aufeinander eingestellt wird.
  21. Verfahren gemäß einem der Ansprüche 1 bis 20, wobei die Signalverarbeitung (300) ein Preprozessormodul (310) aufweist, durch welches elektrische Akustiksignale (202, 212; x1(t), x2(t), ..., xn(t)) für das Entmischmodul (320) aufbereitet werden.
  22. Verfahren gemäß einem der Ansprüche 1 bis 21, wobei die Datenbank (340) in der Fernbedienung (10) der Hörhilfe (1) untergebracht ist und die Fernbedienung (10) bevorzugt drahtlos mit der Hörhilfe (1) kommunizieren kann.
  23. Verfahren gemäß einem der Ansprüche 1 bis 22, wobei die Sprecherakustikquelle (102; s1(t), s3(t)) in der Signalverarbeitung (300) in Form von charakteristischen Parametern gekennzeichnet wird.
  24. Verfahren gemäß einem der Ansprüche 1 bis 23, wobei der Betriebsmodus "Sprecher" derart eingerichtet wird, dass im Ausgangsschall (402; s"(t); s"1(t) +s"n(t)) der Hörhilfe (1) für den Hörhilfeträger nur noch oder im Wesentlichen nur noch das oder die Sprecherakustikquellen (102; s1(t), sn(t)) des Umgebungsschalls (100; 102, 104; s1(t), s2(t), ..., sn(t)) wahrnehmbar sind.
  25. Hörhilfe zum Verfolgen und Selektieren einer Sprecherakustikquelle (102; s1(t), sn(t)) eines Umgebungsschalls (100; 102, 104; s1(t), s2(t), ..., sn(t)), wobei
    die Hörhilfe (1) aus dem Umgebungsschall (100; 102, 104; s1(t), s2(t), ..., sn(t)) mittels einer Blinden Quellentrennung elektrische Akustiksignale (322, 324; 332; s'1(t), s'2(t), ..., s'n(t)) erzeugt und eine Signalverarbeitung (300) zum Etablieren eines Betriebsmodus "Sprecher" aufweist, wobei
    ein Postprozessormodul (330) der Signalverarbeitung (300) aus den getrennten elektrischen Akustiksignalen (322, 324; s'1(t), s'2(t), ..., s'n(t) mindestens ein elektrisches Sprechersignal (322; s'1(t), s'n(t)) mittels einer Datenbank (340) mit Sprecherprofilen (P) präferierter Sprecher identifiziert und auswählt, wobei
    das mindestens eine elektrische Sprechersignal (322; s'1(t), s'n(t)) derart in einem Ausgangsschall (402; s"(t) ; s"1(t)+s"n(t)) der Hörhilfe (1) selektiv berücksichtigbar ist, dass es für den Hörhilfeträger im Vergleich mit einer anderen Akustikquelle (104; s2(t)) wenigstens hervortritt und dadurch akustisch besser wahrnehmbar ist.
  26. Hörhilfe gemäß Anspruch 25, wobei die Signalverarbeitung (300) der Hörhilfe (1) derart eingerichtet ist, dass eine Mehrzahl von akustisch voneinander unabhängigen Sprecherakustikquellen (102; s1(t), sn(t)) getrennt voneinander verfolgbar sind.
  27. Hörhilfe gemäß Anspruch 25 oder 26, wobei das Postprozessormodul (330) das oder die elektrischen Sprechersignale (322; s'1(t), s'n(t)) verfolgt und selektiert, und ein entsprechendes elektrisches Ausgangssignal (332) für einen Hörer (400) der Hörhilfe (1) generiert, der den Ausgangsschall (402; s''(t); s"1(t)+s"3(t)) der Hörhilfe (1) ausgibt.
  28. Hörhilfe gemäß einem der Ansprüche 25 bis 27, wobei mittels der Signalverarbeitung (300) ein Vergleich der in der Datenbank (340) gespeicherten Sprachprofile (P) mit den elektrischen Akustiksignalen (322, 324; s'1(t), s'2(t), ..., s'n(t)) durchführbar ist.
  29. Hörhilfe gemäß einem der Ansprüche 25 bis 28, wobei mittels der Signalverarbeitung (300) eine Profilauswertung der elektrischen Akustiksignale (322, 324; s'1(t), s'2(t), ..., s'n(t)) stattfindet und dabei jedem Akustiksignal (322, 324; s'1(t), s'2(t), ..., s'n(t)) ein Akustikprofil (P1(t), P2(t), ...,Pn(t)) zuordenbar ist.
  30. Hörhilfe gemäß Anspruch 29, wobei mittels der Signalverarbeitung (300) ein Abgleich der in der Datenbank (340) gespeicherten Sprachprofile (P) mit den Akustikprofilen (P1(t), P2(t), ..., Pn(t)) durchführbar ist.
  31. Hörhilfe gemäß einem der Ansprüche 25 bis 30, wobei die Hörhilfe (1) bzw. die Signalverarbeitung (300) in einen Trainingsmodus bringbar ist, in welchem die Hörhilfe (1) bzw. die Signalverarbeitung (300) unbekannte Sprecher lernt.
  32. Hörhilfe gemäß Anspruch 31, wobei die Hörhilfe (1) im Trainingsmodus mittels Mikrofonen (200, 210) eine unbekannte Sprecherakustikquelle derart aufzeichnen kann, dass durch die Hörhilfe (1) bzw. die Signalverarbeitung (300) ein Akustikprofil der unbekannten Sprecherakustikquelle generiert und bevorzugt dauerhaft speicherbar ist.
  33. Hörhilfe gemäß einem der Ansprüche 25 bis 32, wobei die Hörhilfe (1) eine Datenschnittstelle aufweist, mittels welcher die Hörhilfe (1) bzw. die Signalverarbeitung (300) unbekannte Sprecherprofile erhalten kann oder bekannte Sprecherprofile (P) aktualisierbar sind.
  34. Hörhilfe gemäß einem der Ansprüche 25 bis 33, wobei die Hörhilfe (1) mittels eines Bedienelements zum Etablieren des Betriebsmodus "Sprecher" und oder zum Aufrufen des Trainingsmodus bedienbar ist.
  35. Hörhilfe gemäß Anspruch 34, wobei das Bedienelement der Hörhilfe (1) wenigstens teilweise an der Hörhilfe und/oder wenigstens teilweise an einer Fernbedienung (10) für die Hörhilfe (1) vorgesehen ist.
  36. Hörhilfe gemäß einem der Ansprüche 25 bis 35, wobei zwei Hörgeräte (1) der Hörhilfe (1) oder eine einzelne Hörhilfe (1) eine Mehrzahl von Mikrofonen (200, 210) aufweist, die den Umgebungsschall (100; 102, 104; s1(t), s2(t), ..., sn(t)) aufnehmen, welcher das oder die Sprecherakustikquellen (102; S1(t), sn(t)) beinhaltet, und die Mikrofone (200, 210) jeweils ein elektrisches Ausgangssignal (202, 212; x1(t), x2(t), ..., xn(t)) an die Signalverarbeitung (300) ausgeben.
  37. Hörhilfe gemäß einem der Ansprüche 25 bis 36, wobei die Signalverarbeitung (300) ein als Blind Source Separation-Modul (320) ausgebildetes Entmischmodul (320) zur Auftrennung der elektrischen Akustiksignale (202, 212; 312, 314; x1(t), x2(t), ..., xn(t)) aufweist und mittels des Postprozessormoduls (330) der Betriebsmodus "Sprecher" der Hörhilfe (1) etablierbar ist.
  38. Hörhilfe gemäß einem der Ansprüche 25 bis 37, wobei ferner im Postprozessormodul (330) eine Lautstärke der elektrischen Akustiksignale (322, 324; s'1(t), (s'2(t),) ..., sn(t)) aufeinander abstimmbar ist.
  39. Hörhilfe gemäß einem der Ansprüche 25 bis 38, wobei die Signalverarbeitung (300) ein Preprozessormodul (310) aufweist, mittels welchem die elektrischen Akustiksignale (202, 212; x1(t), x2(t), ..., xn(t)) für das Entmischmodul (320) aufbereitbar sind.
  40. Hörhilfe gemäß einem der Ansprüche 25 bis 39, wobei die Datenbank (340) in der Fernbedienung (10) der Hörhilfe (1) untergebracht ist und die Fernbedienung (10) bevorzugt drahtlos mit der Hörhilfe (1) kommunizieren kann.
  41. Hörhilfe gemäß einem der Ansprüche 25 bis 40, wobei die Hörhilfe (1) ein einzelnes oder zwei Hörgeräte (1) und bevorzugt die Fernbedienung (10) umfasst.
EP07117250.6A 2006-10-10 2007-09-26 Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe Not-in-force EP1912474B1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006047982A DE102006047982A1 (de) 2006-10-10 2006-10-10 Verfahren zum Betreiben einer Hörfilfe, sowie Hörhilfe

Publications (2)

Publication Number Publication Date
EP1912474A1 EP1912474A1 (de) 2008-04-16
EP1912474B1 true EP1912474B1 (de) 2015-11-11

Family

ID=38922434

Family Applications (1)

Application Number Title Priority Date Filing Date
EP07117250.6A Not-in-force EP1912474B1 (de) 2006-10-10 2007-09-26 Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe

Country Status (5)

Country Link
US (1) US8194900B2 (de)
EP (1) EP1912474B1 (de)
CN (1) CN101163354B (de)
DE (1) DE102006047982A1 (de)
DK (1) DK1912474T3 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3836567A1 (de) 2019-12-13 2021-06-16 Sivantos Pte. Ltd. Verfahren zum betrieb eines hörsystems und hörsystem

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11431312B2 (en) 2004-08-10 2022-08-30 Bongiovi Acoustics Llc System and method for digital signal processing
US10848118B2 (en) 2004-08-10 2020-11-24 Bongiovi Acoustics Llc System and method for digital signal processing
US10158337B2 (en) 2004-08-10 2018-12-18 Bongiovi Acoustics Llc System and method for digital signal processing
US10701505B2 (en) 2006-02-07 2020-06-30 Bongiovi Acoustics Llc. System, method, and apparatus for generating and digitally processing a head related audio transfer function
US10848867B2 (en) 2006-02-07 2020-11-24 Bongiovi Acoustics Llc System and method for digital signal processing
US9554061B1 (en) * 2006-12-15 2017-01-24 Proctor Consulting LLP Smart hub
DE102008023370B4 (de) 2008-05-13 2013-08-01 Siemens Medical Instruments Pte. Ltd. Verfahren zum Betreiben eines Hörgeräts und Hörgerät
DK2262285T3 (en) * 2009-06-02 2017-02-27 Oticon As Listening device providing improved location ready signals, its use and method
CN102428716B (zh) * 2009-06-17 2014-07-30 松下电器产业株式会社 助听器装置
DE102009051508B4 (de) * 2009-10-30 2020-12-03 Continental Automotive Gmbh Vorrichtung, System und Verfahren zur Sprachdialogaktivierung und -führung
EP2352312B1 (de) * 2009-12-03 2013-07-31 Oticon A/S Verfahren zur dynamischen Unterdrückung von Umgebungsgeräuschen beim Hören elektrischer Eingänge
DK2360943T3 (da) * 2009-12-29 2013-07-01 Gn Resound As Beamforming i høreapparater
US8369549B2 (en) * 2010-03-23 2013-02-05 Audiotoniq, Inc. Hearing aid system adapted to selectively amplify audio signals
DE102010026381A1 (de) * 2010-07-07 2012-01-12 Siemens Medical Instruments Pte. Ltd. Verfahren zum Lokalisieren einer Audioquelle und mehrkanaliges Hörsystem
BR112012031656A2 (pt) * 2010-08-25 2016-11-08 Asahi Chemical Ind dispositivo, e método de separação de fontes sonoras, e, programa
US9883318B2 (en) 2013-06-12 2018-01-30 Bongiovi Acoustics Llc System and method for stereo field enhancement in two-channel audio systems
US9906858B2 (en) 2013-10-22 2018-02-27 Bongiovi Acoustics Llc System and method for digital signal processing
US20150146099A1 (en) * 2013-11-25 2015-05-28 Anthony Bongiovi In-line signal processor
US10720153B2 (en) 2013-12-13 2020-07-21 Harman International Industries, Incorporated Name-sensitive listening device
US11310614B2 (en) 2014-01-17 2022-04-19 Proctor Consulting, LLC Smart hub
US10820883B2 (en) 2014-04-16 2020-11-03 Bongiovi Acoustics Llc Noise reduction assembly for auscultation of a body
US10575117B2 (en) 2014-12-08 2020-02-25 Harman International Industries, Incorporated Directional sound modification
CN105976829B (zh) * 2015-03-10 2021-08-20 松下知识产权经营株式会社 声音处理装置、声音处理方法
US9905244B2 (en) * 2016-02-02 2018-02-27 Ebay Inc. Personalized, real-time audio processing
US20170347348A1 (en) * 2016-05-25 2017-11-30 Smartear, Inc. In-Ear Utility Device Having Information Sharing
US9741360B1 (en) 2016-10-09 2017-08-22 Spectimbre Inc. Speech enhancement for target speakers
US10231067B2 (en) * 2016-10-18 2019-03-12 Arm Ltd. Hearing aid adjustment via mobile device
DE102017207581A1 (de) * 2017-05-05 2018-11-08 Sivantos Pte. Ltd. Hörsystem sowie Hörvorrichtung
IT201700073663A1 (it) * 2017-06-30 2018-12-30 Torino Politecnico Audio signal digital processing method and system thereof
WO2019199706A1 (en) * 2018-04-10 2019-10-17 Acouva, Inc. In-ear wireless device with bone conduction mic communication
AU2019252524A1 (en) 2018-04-11 2020-11-05 Bongiovi Acoustics Llc Audio enhanced hearing protection system
US10959035B2 (en) 2018-08-02 2021-03-23 Bongiovi Acoustics Llc System, method, and apparatus for generating and digitally processing a head related audio transfer function
EP3868128A2 (de) * 2018-10-15 2021-08-25 Orcam Technologies Ltd. Hörhilfesysteme und -verfahren
DE102020202483A1 (de) * 2020-02-26 2021-08-26 Sivantos Pte. Ltd. Hörsystem mit mindestens einem im oder am Ohr des Nutzers getragenen Hörinstrument sowie Verfahren zum Betrieb eines solchen Hörsystems
CN113766383A (zh) * 2021-09-08 2021-12-07 度小满科技(北京)有限公司 一种控制耳机静音的方法和装置
CN113825082A (zh) * 2021-09-19 2021-12-21 武汉左点科技有限公司 一种用于缓解助听延迟的方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4032711A (en) 1975-12-31 1977-06-28 Bell Telephone Laboratories, Incorporated Speaker recognition arrangement
US4837830A (en) * 1987-01-16 1989-06-06 Itt Defense Communications, A Division Of Itt Corporation Multiple parameter speaker recognition system and methods
DE69101527T2 (de) 1990-08-16 1994-07-14 Fujitsu Ten Ltd Spracherkennungseinrichtung für ein Fahrzeug mit einer Mikrophonanordnung zur Lokalisierung des Sitzes, von welchem ein Befehl kommt.
US6327347B1 (en) 1998-12-11 2001-12-04 Nortel Networks Limited Calling party identification authentication and routing in response thereto
DK1017253T3 (da) 1998-12-30 2013-02-11 Siemens Audiologische Technik Blind kildeadskillelse til høreapparater
CA2685434A1 (en) 2000-05-10 2001-11-15 The Board Of Trustees Of The University Of Illinois Interference suppression techniques
JP3903105B2 (ja) 2000-05-23 2007-04-11 富士フイルム株式会社 動的変化検出方法、動的変化検出装置及び超音波診断装置
DE50211390D1 (de) 2002-06-14 2008-01-31 Phonak Ag Verfahren zum Betrieb eines Hörgerätes und Anordung mit einem Hörgerät
US7457426B2 (en) * 2002-06-14 2008-11-25 Phonak Ag Method to operate a hearing device and arrangement with a hearing device
DE102004053790A1 (de) * 2004-11-08 2006-05-18 Siemens Audiologische Technik Gmbh Verfahren zur Erzeugung von Stereosignalen für getrennte Quellen und entsprechendes Akustiksystem
US7319769B2 (en) * 2004-12-09 2008-01-15 Phonak Ag Method to adjust parameters of a transfer function of a hearing device as well as hearing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3836567A1 (de) 2019-12-13 2021-06-16 Sivantos Pte. Ltd. Verfahren zum betrieb eines hörsystems und hörsystem

Also Published As

Publication number Publication date
CN101163354B (zh) 2013-01-02
DK1912474T3 (da) 2016-02-22
EP1912474A1 (de) 2008-04-16
US20080107297A1 (en) 2008-05-08
US8194900B2 (en) 2012-06-05
DE102006047982A1 (de) 2008-04-24
CN101163354A (zh) 2008-04-16

Similar Documents

Publication Publication Date Title
EP1912474B1 (de) Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe
EP1912472A1 (de) Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe
EP2077059B1 (de) Verfahren zum betreiben einer hörhilfe, sowie hörhilfe
DE102019206743A1 (de) Hörgeräte-System und Verfahren zur Verarbeitung von Audiosignalen
DE102019200954A1 (de) Signalverarbeitungseinrichtung, System und Verfahren zur Verarbeitung von Audiosignalen
DE10146886A1 (de) Hörgerät mit automatischer Umschaltung auf Hörspulenbetrieb
EP3104627B1 (de) Verfahren zur verbesserung eines aufnahmesignals in einem hörsystem
DE102011087984A1 (de) Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung
EP1489885A2 (de) Verfahren zum Betrieb eines Hörhilfegerätes sowie Hörhilfegerät mit einem Mikrofonsystem, bei dem unterschiedliche Richtcharakteristiken einstellbar sind
EP3430819B1 (de) Ohrhörer mit getrennten mikrofonen für binauralaufnahmen und zum telefonieren
DE102019200956A1 (de) Signalverarbeitungseinrichtung, System und Verfahren zur Verarbeitung von Audiosignalen
EP3337187A1 (de) Verfahren zum betrieb eines hörgerätes
DE102011085361A1 (de) Mikrofoneinrichtung
EP2084937B1 (de) Verfahren und vorrichtung zur aufnahme, übertragung und wiedergabe von schallereignissen für kommunikationsanwendungen
EP3873108A1 (de) Hörsystem mit mindestens einem im oder am ohr des nutzers getragenen hörinstrument sowie verfahren zum betrieb eines solchen hörsystems
WO2008043758A1 (de) Verfahren zum betreiben einer hörhilfe, sowie hörhilfe
EP0989775A1 (de) Hörgerät mit Einrichtung zur Signalqualitätsüberwachung
EP2120484B1 (de) Verfahren zum Betreiben eines Hörgeräts und Hörgerät
EP3585073A1 (de) Verfahren zur steuerung der datenübertragung zwischen zumindest einem hörgerät und einem peripheriegerät eines hörgerätesystems sowie zugehöriges hörgerätesystem
DE102019208742B4 (de) Sprachübersetzungssystem zum Bereitstellen einer Übersetzung eines Spracheingabesignals eines Sprechers in ein anderssprachiges Sprachausgabesignal für einen Hörer sowie Übersetzungsverfahren für ein derartiges Sprachübersetzungssystem
DE102014210760B4 (de) Betrieb einer Kommunikationsanlage
EP1432282A2 (de) Verfahren zum Anpassen eines Hörgerätes an eine momentane akustische Umgebungssituation und Hörgerätesystem
DE102015212609A1 (de) Verfahren zum Betrieb eines Hörgerätesystems und Hörgerätesystem
DE202019107201U1 (de) Binaurales Hörgerät für eine verbesserte räumliche Hörwahrnehmung
DE102016207936A1 (de) Verfahren zum Betrieb eines Hörgeräts

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC MT NL PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA HR MK RS

17P Request for examination filed

Effective date: 20080710

AKX Designation fees paid

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC MT NL PL PT RO SE SI SK TR

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20150618

RIN1 Information on inventor provided before grant (corrected)

Inventor name: FROEHLICH, MATTHIAS

Inventor name: HAIN, JENS

Inventor name: STEINBUSS, ANDRE

Inventor name: FISCHER, EGHART

Inventor name: PUDER, HENNING

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: SIVANTOS GMBH

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC MT NL PL PT RO SE SI SK TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 760969

Country of ref document: AT

Kind code of ref document: T

Effective date: 20151215

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502007014385

Country of ref document: DE

REG Reference to a national code

Ref country code: CH

Ref legal event code: NV

Representative=s name: E. BLUM AND CO. AG PATENT- UND MARKENANWAELTE , CH

REG Reference to a national code

Ref country code: DK

Ref legal event code: T3

Effective date: 20160216

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

REG Reference to a national code

Ref country code: NL

Ref legal event code: MP

Effective date: 20160211

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20160311

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20160311

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502007014385

Country of ref document: DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 10

26N No opposition filed

Effective date: 20160812

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20160930

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20160926

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20160926

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 11

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 760969

Country of ref document: AT

Kind code of ref document: T

Effective date: 20160926

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20160930

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20160926

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20070926

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20151111

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 12

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20180921

Year of fee payment: 12

Ref country code: DE

Payment date: 20180924

Year of fee payment: 12

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: PL

Payment date: 20180709

Year of fee payment: 6

Ref country code: CH

Payment date: 20180924

Year of fee payment: 12

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DK

Payment date: 20190920

Year of fee payment: 13

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 502007014385

Country of ref document: DE

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20190930

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20190930

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200401

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20190926

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20190930

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20190926

REG Reference to a national code

Ref country code: DK

Ref legal event code: EBP

Effective date: 20200930

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DK

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200930