EP2373064A1 - Verfahren und Anordnung zur Sprachsteuerung von binaurales Hörgeräten - Google Patents

Verfahren und Anordnung zur Sprachsteuerung von binaurales Hörgeräten Download PDF

Info

Publication number
EP2373064A1
EP2373064A1 EP11154775A EP11154775A EP2373064A1 EP 2373064 A1 EP2373064 A1 EP 2373064A1 EP 11154775 A EP11154775 A EP 11154775A EP 11154775 A EP11154775 A EP 11154775A EP 2373064 A1 EP2373064 A1 EP 2373064A1
Authority
EP
European Patent Office
Prior art keywords
voice
speech recognition
hearing aid
hearing
information data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP11154775A
Other languages
English (en)
French (fr)
Other versions
EP2373064B1 (de
Inventor
Roland Barthel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sivantos Pte Ltd
Original Assignee
Siemens Medical Instruments Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Medical Instruments Pte Ltd filed Critical Siemens Medical Instruments Pte Ltd
Publication of EP2373064A1 publication Critical patent/EP2373064A1/de
Application granted granted Critical
Publication of EP2373064B1 publication Critical patent/EP2373064B1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/552Binaural
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/61Aspects relating to mechanical or electronic switches or control elements, e.g. functioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/558Remote control, e.g. of amplification, frequency

Definitions

  • the invention relates to a binaural method and a binaural arrangement for voice control of hearing aids with voice commands with a first and a second hearing aid.
  • hearing aids also include tinnitus markers and anti-stuttering aids.
  • Hearing aids have in principle as essential components an input transducer, an amplifier and an output transducer.
  • the input transducer is usually a sound receiver, z. As a microphone, and / or an electromagnetic receiver, for. B. an induction coil.
  • the output transducer is usually used as an electroacoustic transducer, z. As miniature speaker, or as an electromechanical transducer, z. B. bone conduction, realized.
  • the amplifier is usually integrated in a signal processing unit.
  • FIG. 1 illustrated by the example of a behind-the-ear hearing aid 1.
  • In a hearing aid housing 2 for carrying behind the ear usually two microphones 3 are incorporated for receiving the sound from the environment. Above the microphones 3 microphone openings 7 are formed in the hearing aid housing 2.
  • a signal processing unit 4 which is also integrated in the hearing aid housing 2, processes the microphone signals and amplifies them.
  • the output signal of the signal processing unit 4 is transmitted to a loudspeaker or receiver 5, which outputs an acoustic signal.
  • the sound is optionally transmitted via a sound tube, not shown, which is fixed with an earmold in the ear canal, to the eardrum of the hearing aid wearer.
  • the power supply of the hearing device 1 and in particular that of the signal processing unit 4 is effected by a battery 6 likewise integrated into the hearing device housing 2.
  • the invention claims a method for voice control of hearing aids with voice commands with a first hearing aid and a second hearing aid in a binaural arrangement.
  • a first voice recognition method of the first hearing device for recognizing the voice commands uses information data a second speech recognition method of the second hearing aid.
  • the advantage of this is that the rate of misrecognized voice commands ("false alarms") is reduced while maintaining the hit rate.
  • the information data may comprise a second voice command recognized by the second voice recognition method.
  • Voice control becomes more error-free and robust.
  • a voice command can only be used for voice control if the second voice command matches a first voice command recognized by the first voice recognition method.
  • the information data may include acoustic parameters, voice activity detection results, and / or probabilities of recognized voice commands.
  • the second speech recognition method may be the same as the first speech recognition method.
  • the information data from the first hearing aid can be transmitted wirelessly to the second hearing aid.
  • the invention also claims a binaural arrangement with a first and a second hearing device for voice control of hearing aids by voice commands.
  • the arrangement comprises a first voice recognition module in the first hearing aid and a second voice recognition module in the second hearing aid, which uses information data of the first voice recognition module to recognize the voice commands.
  • the information data may comprise a first voice command recognized by the first voice recognition module.
  • a voice command can only be used for voice control if the first voice command matches a second voice command recognized by the second voice recognition module.
  • the information data of the arrangement may include acoustic parameters, results of voice activity detection, and / or probabilities of recognized voice commands.
  • the arrangement may comprise a first speech recognition algorithm in the first speech recognition module and a second speech recognition algorithm in the second speech recognition module.
  • the first speech recognition algorithm can be equal to the second speech recognition algorithm.
  • the arrangement may comprise a first radio module in the first hearing device and a second radio module in the second hearing device, wherein the first radio module transmits the information data to the second radio module.
  • FIG. 2 shows a flowchart of a method for voice control of a hearing aid 10, 20 with voice commands.
  • a first and a second hearing device 10, 20 are used in a binaural arrangement for this purpose.
  • the first hearing aid 10 supplies the left ear and the second hearing aid 20 the right ear of a hearing aid wearer.
  • a first speech recognition method is implemented in the first hearing device 10 and a second speech recognition method is implemented in the second hearing device 20.
  • the speech recognition methods can be the same. They have common or hearing aid-specific speech recognition algorithms.
  • the number of voice commands to be recognized is limited and usually includes five to a maximum of twenty commands.
  • the hearing aids 10, 20 wait for the delivery of a voice command by the hearing aid wearer.
  • the acoustic input signals are continuously analyzed.
  • the first hearing device 10 recognizes a first voice command and sends it in the following step 102 to the second hearing aid by means of wireless communication.
  • the second hearing aid 20 receives the first voice command.
  • the second hearing device 20 has recognized a second voice command simultaneously to step 101 in step 104.
  • step 105 the second hearing device 20 compares the self-determined second voice command with the first voice command received by the first hearing aid 10. If the two voice commands match, the first and second voice commands are executed in step 106. Subsequently, the process returns to step 100. If the two voice commands do not match, the procedure immediately proceeds to step 100.
  • the method can, of course, also run simultaneously in the reverse direction, ie the second hearing device 20 transmits its recognized second voice command to the first hearing device 10.
  • the first hearing device executes the voice command, if the self-determined first voice command matches the received second voice command.
  • FIG. 3 shows a block diagram of a binaural arrangement according to the invention with a first hearing aid 10 and a second hearing aid 20, which can exchange data via a radio communication 30.
  • the first hearing device 10 comprises a first signal processing unit 14, which processes and amplifies acoustic signals recorded by a first microphone 13 in the form of electrical signals and forwards them to a first receiver 15 for acoustic emission.
  • the microphone signal of the first microphone 13 is analyzed for the presence of previously known voice commands.
  • the speech recognition takes place with the aid of a first speech recognition algorithm 12 in the first speech recognition module 11.
  • the first hearing aid 10 can wirelessly exchange data with the second hearing aid 20 using a first radio module 16.
  • the second hearing device 20 comprises a second signal processing unit 24, which processes and amplifies acoustic signals recorded by a second microphone 23 in the form of electrical signals and forwards them to a second listener 25 for acoustic emission.
  • a second voice recognition module 21 the microphone signal of the second microphone 23 is analyzed for the presence of previously known voice commands.
  • the speech recognition is carried out by means of a second speech recognition algorithm 22 in the second speech recognition module 21.
  • the second hearing aid 20 with the first hearing aid 10 wirelessly exchange data.
  • the first hearing aid 10 sends the recognized first voice command to the second hearing aid 20 using the first radio module, which receives this first voice command by means of the second radio module 26.
  • the second voice recognition module 21 in turn has itself recognized a second voice command.
  • the second voice recognition module 21 now compares the first and second voice commands and controls the second signal processing unit 24 with the second voice command only when the first and second voice commands match.
  • the binaural arrangement works analogously in the opposite direction.
  • the first voice recognition module 11 compares the first and second voice commands and controls the first signal processing unit 14 with the first voice command only when the first and second voice commands match.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Toys (AREA)

Abstract

Die Erfindung gibt eine binaurale Anordnung und ein zugehöriges Verfahren mit einem ersten und einem zweiten Hörgerät (10, 20) zur Sprachsteuerung von Hörgeräten (10, 20) durch Sprachbefehle an. Die Anordnung umfasst ein erstes Spracherkennungsmodul (11) in dem ersten Hörgerät (10) und ein zweites Spracherkennungsmodul (21) in dem zweiten Hörgerät (20). Das zweite Spracherkennungsmodul (21) verwendet Informationsdaten des ersten Spracherkennungsmoduls (11) zum Erkennen der Sprachbefehle. Vorteilhaft daran ist, dass die Rate von falsch erkannten Sprachbefehlen ("Fehlalarme") verringert wird.

Description

  • Die Erfindung betrifft ein binaurales Verfahren und eine binaurale Anordnung zur Sprachsteuerung von Hörgeräten mit Sprachbefehlen mit einem ersten und einem zweiten Hörgerät. Unter Hörgerät werden neben den Hörhilfen für Hörgeschädigte auch Tinnitus-Marker und Anti-Stotter-Hilfen verstanden.
  • Hörgeräte besitzen prinzipiell als wesentliche Komponenten einen Eingangswandler, einen Verstärker und einen Ausgangswandler. Der Eingangswandler ist in der Regel ein Schallempfänger, z. B. ein Mikrofon, und/oder ein elektromagnetischer Empfänger, z. B. eine Induktionsspule. Der Ausgangswandler ist meist als elektroakustischer Wandler, z. B. Miniaturlautsprecher, oder als elektromechanischer Wandler, z. B. Knochenleitungshörer, realisiert. Der Verstärker ist üblicherweise in eine Signalverarbeitungseinheit integriert. Dieser prinzipielle Aufbau ist in Figur 1 am Beispiel eines Hinter-dem-Ohr Hörgeräts 1 dargestellt. In ein Hörgerätegehäuse 2 zum Tragen hinter dem Ohr sind üblicherweise zwei Mikrofone 3 zur Aufnahme des Schalls aus der Umgebung eingebaut. Oberhalb der Mikrofone 3 sind Mikrofonöffnungen 7 in dem Hörgerätegehäuse 2 ausgebildet. Durch die Mikrofonöffnungen 7 kann der Schall zu den Mikrofonen 3 im Inneren des Hörgerätegehäuses 2 gelangen. Eine Signalverarbeitungseinheit 4, die ebenfalls in das Hörgerätegehäuse 2 integriert ist, verarbeitet die Mikrofonsignale und verstärkt sie. Das Ausgangssignal der Signalverarbeitungseinheit 4 wird an einen Lautsprecher bzw. Hörer 5 übertragen, der ein akustisches Signal ausgibt. Der Schall wird gegebenenfalls über einen nicht dargestellten Schallschlauch, der mit einer Otoplastik im Gehörgang fixiert ist, zum Trommelfell des Hörgeräteträgers übertragen. Die Energieversorgung des Hörgeräts 1 und insbesondere die der Signalverarbeitungseinheit 4 erfolgt durch eine ebenfalls ins Hörgerätegehäuse 2 integrierte Batterie 6.
  • Unter einer binauralen Versorgung eines Hörgeschädigten wird die Versorgung mit einem rechten und einem linken Hörgerät bezeichnet. Dadurch können die Hörverluste beider Ohren individuell ausgeglichen werden. Damit die Vorteile einer binauralen Versorgung optimal genutzt werden können, kommunizieren diese drahtlos miteinander und tauschen Daten aus. In der US 2004/0037442 A1 wird eine derartige binaurale Hörgeräteanordnung beschrieben.
  • Untersuchungen der Anmelderin belegen, dass eine Sprachsteuerung von Hörgeräten den Tragekomfort deutlich verbessert. Die oft lästige Bedienung mittels einer Fernbedienung oder kleinen Einstellknöpfen am Hörgerät kann so oftmals vermieden werden. Die DE 10 2007 056 221 A1 gibt eine Lösung an, wie die für eine Sprachsteuerung benötigte Spracherkennung auch mit der verfügbaren Rechenleistung eines Hörgeräts realisiert werden kann. Trotzdem lässt die Erkennungsrate im Alltag zu wünschen übrig. Zu viele "Fehlalarme" treten auf, d.h. dass das Hörgerät einen gültigen Befehl erkennt, obwohl kein Befehl vom Hörgeräteträger gesprochen wurde. Ursache ist, dass die bekannten Spracherkennungsalgorithmen an die Anwendung bei Hörgeräten noch nicht optimal angepasst sind bzw. mit vertretbarem Aufwand nicht anpassbar werden können.
  • Es ist Aufgabe der Erfindung "Fehlalarme" zu vermeiden und ein Verfahren sowie eine Anordnung anzugeben, die eine Sprachsteuerung von Hörgeräten verbessern.
  • Gemäß der Erfindung wird die gestellte Aufgabe mit dem Verfahren und der Anordnung der unabhängigen Patentansprüche gelöst.
  • Die Erfindung beansprucht ein Verfahren zur Sprachsteuerung von Hörgeräten mit Sprachbefehlen mit einem ersten Hörgerät und einem zweiten Hörgerät in binauraler Anordnung. Dabei verwendet ein erstes Spracherkennungsverfahren des ersten Hörgeräts zur Erkennung der Sprachbefehle Informationsdaten eines zweiten Spracherkennungsverfahrens des zweiten Hörgeräts. Vorteilhaft daran ist, dass die Rate von falsch erkannten Sprachbefehlen ("Fehlalarme") verringert wird bei einer gleichzeitigen Beibehaltung der Trefferquote.
  • In einer Weiterbildung des Verfahrens können die Informationsdaten einen von dem zweiten Spracherkennungsverfahren erkannten zweiten Sprachbefehl umfassen. Eine Sprachsteuerung wird dadurch fehlerfreier und robuster.
  • In einer weiteren Ausführungsform des Verfahrens kann ein Sprachbefehl nur dann zur Sprachsteuerung verwendet werden, wenn der zweite Sprachbefehl mit einem von dem ersten Spracherkennungsverfahren erkannten ersten Sprachbefehl übereinstimmt.
  • Des Weiteren können die Informationsdaten akustische Parameter, Ergebnisse einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.
  • In einer weiteren Ausführungsform kann das zweite Spracherkennungsverfahren gleich dem ersten Spracherkennungsverfahren sein.
  • Außerdem können die Informationsdaten vom ersten Hörgerät drahtlos an das zweite Hörgerät übertragen werden.
  • Die Erfindung beansprucht auch eine binaurale Anordnung mit einem ersten und einem zweiten Hörgerät zur Sprachsteuerung von Hörgeräten durch Sprachbefehle. Die Anordnung umfasst ein erstes Spracherkennungsmodul in dem ersten Hörgerät und ein zweites Spracherkennungsmodul in dem zweiten Hörgerät, das Informationsdaten des ersten Spracherkennungsmoduls zur Erkennung der Sprachbefehle verwendet.
  • In einer Weiterbildung der Anordnung können die Informationsdaten einen von dem ersten Spracherkennungsmodul erkannten ersten Sprachbefehl umfassen.
  • In einer weiteren Ausführungsform der Anordnung kann ein Sprachbefehl nur dann zur Sprachsteuerung verwendet werden, wenn der erste Sprachbefehl mit einem von dem zweiten Spracherkennungsmodul erkannten zweiten Sprachbefehl übereinstimmt.
  • Des Weiteren können die Informationsdaten der Anordnung akustische Parameter, Ergebnisse einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.
  • In einer weiteren Ausführungsform kann die Anordnung einen ersten Spracherkennungsalgorithmus in dem ersten Spracherkennungsmodul und einen zweiten Spracherkennungsalgorithmus in dem zweiten Spracherkennungsmodul umfassen.
  • In einer Weiterbildung der Anordnung kann der erste Spracherkennungsalgorithmus gleich dem zweiten Spracherkennungsalgorithmus sein.
  • Außerdem kann die Anordnung ein erstes Funkmodul in dem ersten Hörgerät und ein zweites Funkmodul in dem zweiten Hörgerät umfassen, wobei das erste Funkmodul die Informationsdaten an das zweite Funkmodul überträgt.
  • Weitere Besonderheiten und Vorteile der Erfindung werden aus den nachfolgenden Erläuterungen mehrerer Ausführungsbeispiele anhand von schematischen Zeichnungen ersichtlich.
  • Es zeigen:
  • Figur 1:
    ein Hinter-dem-Ohr Hörgerät gemäß Stand der Technik,
    Figur 2:
    ein Ablaufdiagramm einer binauralen Sprachsteuerung und
    Figur 3:
    eine Anordnung mit zwei Hörgeräten zur binauralen Spracherkennung.
  • Figur 2 zeigt ein Ablaufdiagramm eines Verfahrens zur Sprachsteuerung eines Hörgeräts 10, 20 mit Sprachbefehlen. Erfindungsgemäß werden dazu ein erstes und ein zweites Hörgerät 10, 20 in einer binauralen Anordnung eingesetzt. Das erste Hörgerät 10 versorgt das linke Ohr und das zweite Hörgerät 20 das rechte Ohr eines Hörgeräteträgers. Im ersten Hörgerät 10 ist ein erstes Spracherkennungsverfahren und im zweiten Hörgerät 20 ein zweites Spracherkennungsverfahren implementiert. Die Spracherkennungsverfahren können gleich sein. Sie weisen gängige oder Hörgeräte-spezifische Spracherkennungsalgorithmen auf. Die Anzahl der zu erkennenden Sprachbefehle ist beschränkt und umfasst in der Regel fünf bis maximal zwanzig Befehle.
  • Im ersten Schritt 100 warten die Hörgeräte 10, 20 auf die Abgabe eines Sprachbefehls durch den Hörgeräteträger. Dazu werden laufend die akustischen Eingangssignale analysiert. Im folgenden Schritt 101 erkennt das erste Hörgerät 10 einen ersten Sprachbefehl und sendet diesen im folgenden Schritt 102 an das zweite Hörgerät mit Hilfe drahtloser Kommunikation. Im Schritt 103 empfängt das zweite Hörgerät 20 den ersten Sprachbefehl. Das zweite Hörgerät 20 hat gleichzeitig zu Schritt 101 im Schritt 104 einen zweiten Sprachbefehl erkannt.
  • Im Schritt 105 vergleicht das zweite Hörgerät 20 den selbst ermittelten zweiten Sprachbefehl mit dem vom ersten Hörgerät 10 empfangenen ersten Sprachbefehl. Stimmen die beiden Sprachbefehle überein, wird im Schritt 106 der erste bzw. der zweite Sprachbefehl ausgeführt. Anschließend springt das Verfahren zu Schritt 100 zurück. Stimmen die beiden Sprachbefehle nicht überein, geht das Verfahren sofort mit Verfahrensschritt 100 weiter.
  • Das Verfahren kann selbstverständlich auch gleichzeitig in umgekehrter Richtung ablaufen, d.h. das zweite Hörgerät 20 überträgt seinen erkannten zweiten Sprachbefehl an das erste Hörgerät 10. Das erste Hörgerät führt den Sprachbefehl aus, wenn der selbst ermittelte erste Sprachbefehl mit dem empfangenen zweiten Sprachbefehl übereinstimmt.
  • Anstatt des Ergebnisses der Spracherkennung in Form von ersten oder zweiten Sprachbefehlen können in Ergänzung oder alternativ auch andere Informationsdaten des ersten bzw. zweiten Spracherkennungsverfahrens an das andere Hörgerät übertragen werden. Diese "Rohdaten" werden dann im anderen ersten bzw. zweiten Spracherkennungsverfahren bei einer Spracherkennung mitberücksichtigt.
  • Figur 3 zeigt ein Blockschaltbild einer erfindungsgemäßen binauralen Anordnung mit einem ersten Hörgerät 10 und einem zweiten Hörgerät 20, die über eine Funkkommunikation 30 Daten austauschen können. Das erste Hörgerät 10 umfasst eine erste Signalverarbeitungseinheit 14, die von einem ersten Mikrofon 13 aufgenommene akustische Signale in Form von elektrischen Signalen aufbereitet und verstärkt und zur akustischen Abgabe an einen ersten Hörer 15 weiterleitet. Mit Hilfe eines ersten Spracherkennungsmoduls 11 wird das Mikrofonsignal des ersten Mikrofons 13 auf das Vorhandensein von vorbekannten Sprachbefehlen analysiert. Die Sprecherkennung erfolgt mithilfe eines ersten Spracherkennungsalgorithmus 12 im ersten Spracherkennungsmodul 11. Mit einem ersten Funkmodul 16 kann das erste Hörgerät 10 mit dem zweiten Hörgerät 20 drahtlos Daten austauschen.
  • Das zweite Hörgerät 20 umfasst eine zweite Signalverarbeitungseinheit 24, die von einem zweiten Mikrofon 23 aufgenommene akustische Signale in Form von elektrischen Signalen aufbereitet und verstärkt und zur akustischen Abgabe an einen zweiten Hörer 25 weiterleitet. Mit Hilfe eines zweiten Spracherkennungsmoduls 21 wird das Mikrofonsignal des zweiten Mikrofons 23 auf das Vorhandensein von vorbekannten Sprachbefehlen analysiert. Die Sprecherkennung erfolgt mithilfe eines zweiten Spracherkennungsalgorithmus 22 im zweiten Spracherkennungsmodul 21. Mit einem zweiten Funkmodul 26 kann das zweite Hörgerät 20 mit dem ersten Hörgerät 10 drahtlos Daten austauschen.
  • Wird ein erster Sprachbefehl durch das erste Spracherkennungsmodul 11 erkannt, sendet das erste Hörgerät 10 mithilfe des ersten Funkmoduls den erkannten ersten Sprachbefehl an das zweite Hörgerät 20, das diesen ersten Sprachbefehl mithilfe des zweiten Funkmoduls 26 empfängt. Das zweite Spracherkennungsmodul 21 hat wiederum selbst einen zweiten Sprachbefehl erkannt. Das zweite Spracherkennungsmodul 21 vergleicht nun den ersten und den zweiten Sprachbefehl und steuert die zweite Signalverarbeitungseinheit 24 mit dem zweiten Sprachbefehl nur dann, wenn der erste und der zweite Sprachbefehl übereinstimmen.
  • Die binaurale Anordnung funktioniert analog in umgekehrter Richtung. Das erste Spracherkennungsmodul 11 vergleicht den ersten und den zweiten Sprachbefehl und steuert die erste Signalverarbeitungseinheit 14 mit dem ersten Sprachbefehl nur dann, wenn der erste und der zweite Sprachbefehl übereinstimmen.
  • Anstelle von oder zusätzlich zu erkannten ersten und zweiten Sprachbefehlen können mit der Funkkommunikation 30 auch andere Informationsdaten, wie beispielweise akustische Parameter, Ergebnisse einer Voice Activity Detection oder Wahrscheinlichkeiten von erkannten Sprachbefehlen, ausgetauscht werden.
  • Bezugszeichenliste
  • 1
    Hinter-dem-Ohr Hörgerät
    2
    Hörgerätegehäuse
    3
    Mikrofon
    4
    Signalverarbeitungseinheit
    5
    Hörer
    6
    Batterie
    7
    Mikrofonöffnung im Hörgerätegehäuse 2
    10
    erstes Hörgerät
    11
    erstes Spracherkennungsmodul
    12
    erster Spracherkennungsalgorithmus
    13
    erstes Mikrofon
    14
    erste Signalverarbeitungseinheit
    15
    erster Hörer
    16
    erstes Funkmodul
    20
    zweites Hörgerät
    21
    zweites Spracherkennungsmodul
    22
    zweiter Spracherkennungsalgorithmus
    23
    zweites Mikrofon
    24
    zweite Signalverarbeitungseinheit
    25
    zweiter Hörer
    26
    zweites Funkmodul
    30
    Funkkommunikation
    100
    Warten auf Sprachbefehl
    101
    Erster Sprachbefehl erkannt
    102
    Senden des ersten Sprachbefehls
    103
    Empfangen des ersten Sprachbefehls
    104
    Zweiter Sprachbefehl erkannt
    105
    Vergleich erster und zweiter Sprachbefehl
    106
    Ausführen des Sprachbefehls

Claims (13)

  1. Verfahren zur Sprachsteuerung von Hörgeräten (10, 20) mit Sprachbefehlen mit einem ersten Hörgerät (10) und einem zweiten Hörgerät (20) in binauraler Anordnung,
    dadurch gekennzeichnet,
    dass ein erstes Spracherkennungsverfahren des ersten Hörgeräts (10) Informationsdaten eines zweiten Spracherkennungsverfahrens des zweiten Hörgeräts (20) zur Erkennung der Sprachbefehle verwendet.
  2. Verfahren nach Anspruch 1,
    dadurch gekennzeichnet,
    dass die Informationsdaten einen von dem zweiten Spracherkennungsverfahren erkannten zweiten Sprachbefehl umfassen.
  3. Verfahren nach Anspruch 2,
    dadurch gekennzeichnet,
    dass ein Sprachbefehl nur dann zur Sprachsteuerung verwendet wird, wenn der zweite Sprachbefehl mit einem von dem ersten Spracherkennungsverfahren erkannten ersten Sprachbefehl übereinstimmt.
  4. Verfahren nach einem der Ansprüche 1 bis 3,
    dadurch gekennzeichnet,
    dass die Informationsdaten akustische Parameter, Ergebnisse einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,
    dass das zweite Spracherkennungsverfahren gleich dem ersten Spracherkennungsverfahren ist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet,
    dass die Informationsdaten vom ersten Hörgerät (10) drahtlos an das zweite Hörgerät (20) übertragen werden.
  7. Binaurale Anordnung zur Sprachsteuerung von Hörgeräten (10, 20) durch Sprachbefehle mit einem ersten und einem zweiten Hörgerät (10, 20) ,
    gekennzeichnet durch:
    - ein erstes Spracherkennungsmodul (11) in dem ersten Hörgerät (10) und
    - ein zweites Spracherkennungsmodul (21) in dem zweiten Hörgerät (20), das Informationsdaten des ersten Spracherkennungsmoduls (11) zur Erkennung der Sprachbefehle verwendet.
  8. Anordnung nach Anspruch 7,
    dadurch gekennzeichnet,
    dass die Informationsdaten einen von dem ersten Spracherkennungsmodul (11) erkannten ersten Sprachbefehl umfassen.
  9. Anordnung nach Anspruch 8,
    dadurch gekennzeichnet,
    dass ein Sprachbefehl nur dann zur Sprachsteuerung verwendet wird, wenn der erste Sprachbefehl mit einem von dem zweiten Spracherkennungsmodul (21) erkannten zweiten Sprachbefehl übereinstimmt.
  10. Anordnung nach einem der Ansprüche 7 bis 9,
    dadurch gekennzeichnet,
    dass die Informationensdaten akustische Parameter, Ergebnisse einer Voice Activity Detection und/oder Wahrscheinlichkeiten von erkannten Sprachbefehlen umfassen.
  11. Anordnung nach einem der Ansprüche 7 bis 10, gekennzeichnet durch:
    - einen ersten Spracherkennungsalgorithmus (12) in dem ersten Spracherkennungsmodul (11) und
    - einen zweiten Spracherkennungsalgorithmus (22) in dem zweiten Spracherkennungsmodul (21).
  12. Anordnung nach Anspruch 11,
    dadurch gekennzeichnet,
    dass der erste Spracherkennungsalgorithmus (12) gleich dem zweiten Spracherkennungsalgorithmus (22) ist.
  13. Anordnung nach einem der Ansprüche 7 bis 12, gekennzeichnet durch:
    - ein erstes Funkmodul (16) in dem ersten Hörgerät (10) und
    - ein zweites Funkmodul (26) in dem zweiten Hörgerät (20), wobei das erste Funkmodul (16) die Informationsdaten an das zweite Funkmodul (26) überträgt.
EP11154775.8A 2010-03-24 2011-02-17 Verfahren und Anordnung zur Sprachsteuerung von binaurales Hörgeräten Active EP2373064B1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201010012622 DE102010012622B4 (de) 2010-03-24 2010-03-24 Binaurales Verfahren und binaurale Anordnung zur Sprachsteuerung von Hörgeräten

Publications (2)

Publication Number Publication Date
EP2373064A1 true EP2373064A1 (de) 2011-10-05
EP2373064B1 EP2373064B1 (de) 2013-12-04

Family

ID=43837311

Family Applications (1)

Application Number Title Priority Date Filing Date
EP11154775.8A Active EP2373064B1 (de) 2010-03-24 2011-02-17 Verfahren und Anordnung zur Sprachsteuerung von binaurales Hörgeräten

Country Status (4)

Country Link
US (1) US20110238419A1 (de)
EP (1) EP2373064B1 (de)
DE (1) DE102010012622B4 (de)
DK (1) DK2373064T3 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9167368B2 (en) * 2011-12-23 2015-10-20 Blackberry Limited Event notification on a mobile device using binaural sounds
DK2988531T3 (en) 2014-08-20 2019-01-14 Starkey Labs Inc HEARING SYSTEM WITH OWN VOICE DETECTION
US11086593B2 (en) 2016-08-26 2021-08-10 Bragi GmbH Voice assistant for wireless earpieces
EP3799446A1 (de) * 2016-08-29 2021-03-31 Oticon A/s Hörgerät mit sprachsteuerungsfunktion
US11195518B2 (en) 2019-03-27 2021-12-07 Sonova Ag Hearing device user communicating with a wireless communication device
US11006200B2 (en) 2019-03-28 2021-05-11 Sonova Ag Context dependent tapping for hearing devices
EP4085654A1 (de) 2019-12-31 2022-11-09 Starkey Laboratories, Inc. Verfahren und systeme zur bewertung der einsetzposition einer ohrinternen anordnung eines hörgeräts
WO2022066307A2 (en) 2020-09-28 2022-03-31 Starkey Laboratories, Inc. Temperature sensor based ear-worn electronic device fit assessment
US12101606B2 (en) 2021-05-28 2024-09-24 Starkey Laboratories, Inc. Methods and systems for assessing insertion position of hearing instrument

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4419901A1 (de) * 1994-06-07 1996-02-15 Siemens Audiologische Technik Hörhilfegerät
US20040037442A1 (en) 2000-07-14 2004-02-26 Gn Resound A/S Synchronised binaural hearing system
DE102007056221A1 (de) 2007-11-27 2009-05-28 Siemens Ag Österreich Verfahren zur Spracherkennung

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5721783A (en) * 1995-06-07 1998-02-24 Anderson; James C. Hearing aid with wireless remote processor
US5754978A (en) * 1995-10-27 1998-05-19 Speech Systems Of Colorado, Inc. Speech recognition system
US6236969B1 (en) * 1998-07-31 2001-05-22 Jonathan P. Ruppert Wearable telecommunications apparatus with voice/speech control features
JP2002149187A (ja) * 2000-11-07 2002-05-24 Sony Corp 音声認識装置および音声認識方法、並びに記録媒体
US7203651B2 (en) * 2000-12-07 2007-04-10 Art-Advanced Recognition Technologies, Ltd. Voice control system with multiple voice recognition engines
US6898567B2 (en) * 2001-12-29 2005-05-24 Motorola, Inc. Method and apparatus for multi-level distributed speech recognition
WO2003102920A1 (en) * 2002-05-30 2003-12-11 Custom Speech Usa, Inc. A method for locating an audio segment within an audio file
US20060190249A1 (en) * 2002-06-26 2006-08-24 Jonathan Kahn Method for comparing a transcribed text file with a previously created file
CA2516941A1 (en) * 2003-02-19 2004-09-02 Custom Speech Usa, Inc. A method for form completion using speech recognition and text comparison
US20050177371A1 (en) * 2004-02-06 2005-08-11 Sherif Yacoub Automated speech recognition
DE102004025123A1 (de) * 2004-05-21 2005-07-21 Siemens Audiologische Technik Gmbh Hörhilfegerät oder Hörgerätesystem mit akustischer Batterieanzeige
EP2019985B1 (de) * 2006-05-12 2018-04-04 Nuance Communications Austria GmbH Verfahren zum wechseln von einer ersten adaptiven datenverarbeitungsversion zu einer zweiten adaptiven datenverarbeitungsversion
EP1912472A1 (de) * 2006-10-10 2008-04-16 Siemens Audiologische Technik GmbH Verfahren zum Betreiben einer Hörhilfe, sowie Hörhilfe
US20080120094A1 (en) * 2006-11-17 2008-05-22 Nokia Corporation Seamless automatic speech recognition transfer
US8532307B2 (en) * 2007-01-30 2013-09-10 Phonak Ag Method and system for providing binaural hearing assistance
DE602007004185D1 (de) * 2007-02-02 2010-02-25 Harman Becker Automotive Sys System und Verfahren zur Sprachsteuerung
DE102007008738A1 (de) * 2007-02-22 2008-08-28 Siemens Audiologische Technik Gmbh Verfahren zur Verbesserung der räumlichen Wahrnehmung und entsprechende Hörvorrichtung
FR2923928B1 (fr) * 2007-11-19 2009-12-04 Bonneton William Systeme d'interpretation simultanee automatique.
FR2932920A1 (fr) * 2008-06-19 2009-12-25 Archean Technologies Procede et appareil de mesure de l'intelligibilite d'un dispositif de diffusion sonore

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4419901A1 (de) * 1994-06-07 1996-02-15 Siemens Audiologische Technik Hörhilfegerät
US20040037442A1 (en) 2000-07-14 2004-02-26 Gn Resound A/S Synchronised binaural hearing system
DE102007056221A1 (de) 2007-11-27 2009-05-28 Siemens Ag Österreich Verfahren zur Spracherkennung

Also Published As

Publication number Publication date
US20110238419A1 (en) 2011-09-29
EP2373064B1 (de) 2013-12-04
DE102010012622A1 (de) 2011-09-29
DE102010012622B4 (de) 2015-04-30
DK2373064T3 (en) 2014-03-10

Similar Documents

Publication Publication Date Title
EP2373064B1 (de) Verfahren und Anordnung zur Sprachsteuerung von binaurales Hörgeräten
EP3451705B1 (de) Verfahren und vorrichtung zum schnellen erkennen der eigenen stimme
EP2603018B1 (de) Hörvorrichtung mit Sprecheraktivitätserkennung und Verfahren zum Betreiben einer Hörvorrichtung
EP3445067B1 (de) Verfahren zum betrieb eines hörgeräts und hörgerät
EP2164283B1 (de) Hörgerät und Betrieb eines Hörgeräts mit Frequenztransposition
EP3873108A1 (de) Hörsystem mit mindestens einem im oder am ohr des nutzers getragenen hörinstrument sowie verfahren zum betrieb eines solchen hörsystems
EP1906700B1 (de) Verfahren zum zeitgesteuerten Einstellen einer Hörvorrichtung und entsprechende Hörvorrichtung
EP3836139B1 (de) Verfahren, bei welchem zwei hörgeräte miteinander gekoppelt werden, sowie hörgerät
DE102013215131A1 (de) Verfahren zur Verfolgung einer Schallquelle
EP3585071A1 (de) Verfahren zur steuerung der datenübertragung zwischen zumindest einem hörgerät und einem peripheriegerät eines hörgerätesystems sowie hörgerät
EP2182741B1 (de) Hörvorrichtung mit spezieller Situationserkennungseinheit und Verfahren zum Betreiben einer Hörvorrichtung
DE102018209824A1 (de) Verfahren zur Steuerung der Datenübertragung zwischen zumindest einem Hörgerät und einem Peripheriegerät eines Hörgerätesystems sowie Hörgerät
EP3836567A1 (de) Verfahren zum betrieb eines hörsystems und hörsystem
EP1926087A1 (de) Anpassung einer Hörvorrichtung an ein Sprachsignal
EP1881738B1 (de) Verfahren zum Betrieb eines Hörgerätes und Anordnung mit einem Hörgerät
EP2434781A1 (de) Verfahren zum Rekonstruieren eines Sprachsignals und Hörvorrichtung
DE102010018877A1 (de) Verfahren und Anordnung zur Sprachsteuerung von Hörgeräten
EP2658289B1 (de) Verfahren zum Steuern einer Richtcharakteristik und Hörsystem
DE102007035173A1 (de) Verfahren zum Einstellen eines Hörsystems mit einem perzeptiven Modell für binaurales Hören und entsprechendes Hörsystem
EP2793488B1 (de) Binaurale Mikrofonanpassung mittels der eigenen Stimme
EP2034767A1 (de) Verfahren und Anordnungen zum Erfassen des Typs einer Schallsignalquelle mit einem Hörgerät
DE102020201615B3 (de) Hörsystem mit mindestens einem im oder am Ohr des Nutzers getragenen Hörinstrument sowie Verfahren zum Betrieb eines solchen Hörsystems
EP2604046A1 (de) Verfahren zum betreiben eines hörgeräts und entsprechendes hörgerät
EP2028878A2 (de) Verfahren zur Seitendefinition bei der Anpassung von Hörhilfen
EP1909535A2 (de) Hörvorrichtung mit gesteuerten Eingangskanälen und entsprechendes Verfahren

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

17P Request for examination filed

Effective date: 20110905

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20130626

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

Ref country code: CH

Ref legal event code: NV

Representative=s name: SIEMENS SCHWEIZ AG, CH

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

Ref country code: AT

Ref legal event code: REF

Ref document number: 643937

Country of ref document: AT

Kind code of ref document: T

Effective date: 20140115

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502011001736

Country of ref document: DE

Effective date: 20140130

REG Reference to a national code

Ref country code: DK

Ref legal event code: T3

Effective date: 20140303

REG Reference to a national code

Ref country code: NL

Ref legal event code: VDEP

Effective date: 20131204

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140304

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140404

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140404

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

BERE Be: lapsed

Owner name: SIEMENS MEDICAL INSTRUMENTS PTE. LTD.

Effective date: 20140228

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502011001736

Country of ref document: DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140217

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed

Effective date: 20140905

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502011001736

Country of ref document: DE

Effective date: 20140905

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20140217

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20140228

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 502011001736

Country of ref document: DE

Representative=s name: FDST PATENTANWAELTE FREIER DOERR STAMMLER TSCH, DE

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 502011001736

Country of ref document: DE

Representative=s name: FDST PATENTANWAELTE FREIER DOERR STAMMLER TSCH, DE

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 502011001736

Country of ref document: DE

Representative=s name: FDST PATENTANWAELTE FREIER DOERR STAMMLER TSCH, DE

Ref country code: DE

Ref legal event code: R081

Ref document number: 502011001736

Country of ref document: DE

Owner name: SIVANTOS PTE. LTD., SG

Free format text: FORMER OWNER: SIEMENS MEDICAL INSTRUMENTS PTE. LTD., SINGAPORE, SG

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 6

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20140305

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20110217

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 7

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 643937

Country of ref document: AT

Kind code of ref document: T

Effective date: 20160217

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20160217

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 8

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20131204

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20240216

Year of fee payment: 14

Ref country code: GB

Payment date: 20240222

Year of fee payment: 14

Ref country code: CH

Payment date: 20240301

Year of fee payment: 14

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20240221

Year of fee payment: 14

Ref country code: DK

Payment date: 20240221

Year of fee payment: 14